LLM Hub

500+
ດາວໂຫຼດ
ປະເພດເນື້ອຫາ
ທຸກຄົນ
ຮູບໜ້າຈໍ
ຮູບໜ້າຈໍ
ຮູບໜ້າຈໍ
ຮູບໜ້າຈໍ
ຮູບໜ້າຈໍ
ຮູບໜ້າຈໍ
ຮູບໜ້າຈໍ
ຮູບໜ້າຈໍ
ຮູບໜ້າຈໍ

ກ່ຽວກັບແອັບນີ້

LLM Hub ນຳເອົາ AI ລະດັບການຜະລິດມາໃຫ້ອຸປະກອນ Android ຂອງທ່ານໂດຍກົງ — ສ່ວນຕົວ, ໄວ, ແລະເຕັມທີ່. ເປີດໃຊ້ LLMs ໃນອຸປະກອນທີ່ທັນສະໄຫມ (Gemma-3, Gemma-3n multimodal, Llama-3.2, Phi-4 Mini) ທີ່ມີປ່ອງຢ້ຽມບໍລິບົດຂະຫນາດໃຫຍ່, ຫນ່ວຍຄວາມຈໍາທົ່ວໂລກທີ່ຄົງທີ່, ແລະການຜະລິດການຂະຫຍາຍຄືນໃຫມ່ (RAG) ທີ່ມີຄໍາຕອບຢູ່ໃນເອກະສານດັດສະນີທີ່ເກັບໄວ້ໃນອຸປະກອນ. ສ້າງແລະເກັບຮັກສາການຝັງສໍາລັບເອກະສານແລະບັນທຶກ, ດໍາເນີນການຊອກຫາ vector ຄວາມຄ້າຍຄືກັນໃນທ້ອງຖິ່ນ, ແລະເພີ່ມການຕອບສະຫນອງກັບ DuckDuckGo-powered ການຊອກຫາເວັບໄຊຕ໌ໃນເວລາທີ່ທ່ານຕ້ອງການຄວາມຈິງສົດ. ທຸກສິ່ງທຸກຢ່າງທີ່ສໍາຄັນຈະຢູ່ໃນໂທລະສັບຂອງທ່ານເວັ້ນເສຍແຕ່ວ່າທ່ານສົ່ງອອກມັນຢ່າງຈະແຈ້ງ: ຫນ່ວຍຄວາມຈໍາໃນທ້ອງຖິ່ນເທົ່ານັ້ນ, ດັດສະນີ, ແລະການຝັງຕົວປົກປ້ອງຄວາມເປັນສ່ວນຕົວຂອງທ່ານໃນຂະນະທີ່ສະຫນອງຄວາມກ່ຽວຂ້ອງແລະຄວາມຖືກຕ້ອງສູງ.

ຄຸນນະສົມບັດທີ່ສໍາຄັນ

ການອ້າງອີງ LLM ໃນອຸປະກອນ: ການຕອບສະ ໜອງ ສ່ວນຕົວໄວ, ໂດຍບໍ່ມີການຂື້ນກັບຄລາວ; ເລືອກຮູບແບບທີ່ກົງກັບອຸປະກອນແລະຄວາມຕ້ອງການຂອງທ່ານ.
Retrieval-Augmented Generation (RAG): ສົມທົບການສົມເຫດສົມຜົນແບບຈໍາລອງກັບຊິ້ນເອກະສານທີ່ຖືກດັດສະນີແລະການຝັງເພື່ອຜະລິດຄໍາຕອບທີ່ເປັນພື້ນຖານ.
ໜ່ວຍຄວາມຈຳທົ່ວໂລກແບບຄົງທີ່: ບັນທຶກຂໍ້ເທັດຈິງ, ເອກະສານ, ແລະຄວາມຮູ້ໄວ້ໃນໜ່ວຍຄວາມຈຳພາຍໃນອຸປະກອນ (Room DB) ແບບຄົງທີ່, ສຳລັບການເອີ້ນຄືນໃນໄລຍະຍາວໃນທົ່ວເຊດຊັນ.
Embeddings & Vector Search: ສ້າງການຝັງ, ດັດສະນີເນື້ອຫາຢູ່ໃນທ້ອງຖິ່ນ, ແລະເອົາເອກະສານທີ່ກ່ຽວຂ້ອງທີ່ສຸດກັບການຄົ້ນຫາທີ່ຄ້າຍຄືກັນທີ່ມີປະສິດທິພາບ.
ຮອງຮັບ Multimodal: ໃຊ້ຕົວແບບຂໍ້ຄວາມ + ຮູບພາບ (Gemma-3n) ສໍາລັບການໂຕ້ຕອບທີ່ອຸດົມສົມບູນກວ່າເມື່ອມີໃຫ້.
ການເຊື່ອມໂຍງການຄົ້ນຫາເວັບ: ເສີມຄວາມຮູ້ໃນທ້ອງຖິ່ນດ້ວຍຜົນການຄົ້ນຫາເວັບທີ່ຂັບເຄື່ອນດ້ວຍ DuckDuckGo ເພື່ອດຶງຂໍ້ມູນທີ່ທັນສະໄຫມສໍາລັບການສອບຖາມ RAG ແລະຄໍາຕອບທັນທີ.
Offline-Ready: ເຮັດ​ວຽກ​ໂດຍ​ບໍ່​ມີ​ການ​ເຂົ້າ​ເຖິງ​ເຄືອ​ຂ່າຍ — ຕົວ​ແບບ​, ຄວາມ​ຊົງ​ຈໍາ​, ແລະ​ດັດ​ຊະ​ນີ​ຍັງ​ຄົງ​ຢູ່​ໃນ​ອຸ​ປະ​ກອນ​.
ການເລັ່ງ GPU (ທາງເລືອກ): ໄດ້ຮັບຜົນປະໂຫຍດຈາກການເລັ່ງຮາດແວທີ່ຮອງຮັບ — ເພື່ອຜົນໄດ້ຮັບທີ່ດີທີ່ສຸດກັບຕົວແບບທີ່ມີ GPU ທີ່ມີຂະໜາດໃຫຍ່ກວ່າ ພວກເຮົາແນະນຳອຸປະກອນທີ່ມີ RAM ຢ່າງໜ້ອຍ 8GB.
Privacy-First Design: ຫນ່ວຍຄວາມຈໍາ, ການຝັງ, ແລະດັດຊະນີ RAG ຍັງຄົງຢູ່ໃນທ້ອງຖິ່ນໂດຍຄ່າເລີ່ມຕົ້ນ; ບໍ່ມີການອັບໂຫລດຄລາວເວັ້ນເສຍແຕ່ວ່າທ່ານເລືອກທີ່ຈະແບ່ງປັນຫຼືສົ່ງອອກຂໍ້ມູນຢ່າງຊັດເຈນ.
Long-Context Handling: ຮອງຮັບຕົວແບບທີ່ມີໜ້າຕ່າງຂະໜາດໃຫຍ່ ເພື່ອໃຫ້ຜູ້ຊ່ວຍສາມາດຫາເຫດຜົນໃນເອກະສານ ແລະປະຫວັດອັນກວ້າງຂວາງ.
Developer-Friendly: ປະສົມປະສານກັບ inference ທ້ອງຖິ່ນ, indexing, ແລະ retrieval ກໍລະນີການນໍາໃຊ້ສໍາລັບ app ທີ່ຕ້ອງການເອກະຊົນ, offline AI.
ເປັນຫຍັງຕ້ອງເລືອກ LLM Hub? LLM Hub ຖືກສ້າງຂຶ້ນເພື່ອສົ່ງ AI ສ່ວນຕົວ, ຖືກຕ້ອງ, ແລະປ່ຽນແປງໄດ້ໃນມືຖື. ມັນລວມຄວາມໄວຂອງການສັງລວມໃນທ້ອງຖິ່ນກັບພື້ນຖານຄວາມເປັນຈິງຂອງລະບົບການດຶງຂໍ້ມູນແລະຄວາມສະດວກສະບາຍຂອງຄວາມຊົງຈໍາຄົງທີ່ - ເຫມາະສໍາລັບພະນັກງານຄວາມຮູ້, ຜູ້ໃຊ້ທີ່ມີສະຕິຄວາມເປັນສ່ວນຕົວ, ແລະຜູ້ພັດທະນາສ້າງຄຸນສົມບັດ AI ທ້ອງຖິ່ນທໍາອິດ.

ຕົວແບບທີ່ຮອງຮັບ: Gemma-3, Gemma-3n (multimodal), Llama-3.2, Phi-4 Mini — ເລືອກຮູບແບບທີ່ເໝາະສົມກັບຄວາມສາມາດຂອງອຸປະກອນ ແລະຄວາມຕ້ອງການຂອງບໍລິບົດ.
ອັບເດດແລ້ວເມື່ອ
16 ກ.ຍ. 2025

ຄວາມປອດໄພຂອງຂໍ້ມູນ

ຄວາມປອດໄພເລີ່ມດ້ວຍການເຂົ້າໃຈວ່ານັກພັດທະນາເກັບກຳ ແລະ ແບ່ງປັນຂໍ້ມູນຂອງທ່ານແນວໃດ. ວິທີປະຕິບັດກ່ຽວກັບຄວາມເປັນສ່ວນຕົວ ແລະ ຄວາມປອດໄພຂອງຂໍ້ມູນອາດຈະແຕກຕ່າງກັນອີງຕາມການນຳໃຊ້, ພາກພື້ນ ແລະ ອາຍຸຂອງທ່ານ. ນັກພັດທະນາໃຫ້ຂໍ້ມູນນີ້ ແລະ ອາດຈະອັບເດດມັນເມື່ອເວລາຜ່ານໄປ.
ບໍ່ໄດ້ໄດ້ແບ່ງປັນຂໍ້ມູນກັບພາກສ່ວນທີສາມ
ສຶກສາເພີ່ມເຕີມ ກ່ຽວກັບວ່ານັກພັດທະນາປະກາດການແບ່ງປັນຂໍ້ມູນແນວໃດ
ບໍ່ໄດ້ເກັບກຳຂໍ້ມູນ
ສຶກສາເພີ່ມເຕີມ ກ່ຽວກັບວ່ານັກພັດທະນາປະກາດການເກັບກຳຂໍ້ມູນແນວໃດ

ມີຫຍັງໃໝ່

- Upgraded Phi-4 Mini Max context window to 4096 and enabled GPU backend
- Model loading configuration now remembers your last settings
- Added translation support for Italian

ຝ່າຍຊ່ວຍເຫຼືອຂອງແອັບ

ກ່ຽວກັບນັກພັດທະນາແອັບ
Yuan Qian
timmyboy0623@gmail.com
33 Magdalena Place, Rowville Rowville Clayton VIC 3168 Australia
undefined

ແອັບທີ່ຄ້າຍກັນ