LLM Hub ນຳເອົາ AI ລະດັບການຜະລິດມາໃຫ້ອຸປະກອນ Android ຂອງທ່ານໂດຍກົງ — ສ່ວນຕົວ, ໄວ, ແລະເຕັມທີ່. ເປີດໃຊ້ LLMs ໃນອຸປະກອນທີ່ທັນສະໄຫມ (Gemma-3, Gemma-3n multimodal, Llama-3.2, Phi-4 Mini) ທີ່ມີປ່ອງຢ້ຽມບໍລິບົດຂະຫນາດໃຫຍ່, ຫນ່ວຍຄວາມຈໍາທົ່ວໂລກທີ່ຄົງທີ່, ແລະການຜະລິດການຂະຫຍາຍຄືນໃຫມ່ (RAG) ທີ່ມີຄໍາຕອບຢູ່ໃນເອກະສານດັດສະນີທີ່ເກັບໄວ້ໃນອຸປະກອນ. ສ້າງແລະເກັບຮັກສາການຝັງສໍາລັບເອກະສານແລະບັນທຶກ, ດໍາເນີນການຊອກຫາ vector ຄວາມຄ້າຍຄືກັນໃນທ້ອງຖິ່ນ, ແລະເພີ່ມການຕອບສະຫນອງກັບ DuckDuckGo-powered ການຊອກຫາເວັບໄຊຕ໌ໃນເວລາທີ່ທ່ານຕ້ອງການຄວາມຈິງສົດ. ທຸກສິ່ງທຸກຢ່າງທີ່ສໍາຄັນຈະຢູ່ໃນໂທລະສັບຂອງທ່ານເວັ້ນເສຍແຕ່ວ່າທ່ານສົ່ງອອກມັນຢ່າງຈະແຈ້ງ: ຫນ່ວຍຄວາມຈໍາໃນທ້ອງຖິ່ນເທົ່ານັ້ນ, ດັດສະນີ, ແລະການຝັງຕົວປົກປ້ອງຄວາມເປັນສ່ວນຕົວຂອງທ່ານໃນຂະນະທີ່ສະຫນອງຄວາມກ່ຽວຂ້ອງແລະຄວາມຖືກຕ້ອງສູງ.
ຄຸນນະສົມບັດທີ່ສໍາຄັນ
ການອ້າງອີງ LLM ໃນອຸປະກອນ: ການຕອບສະ ໜອງ ສ່ວນຕົວໄວ, ໂດຍບໍ່ມີການຂື້ນກັບຄລາວ; ເລືອກຮູບແບບທີ່ກົງກັບອຸປະກອນແລະຄວາມຕ້ອງການຂອງທ່ານ.
Retrieval-Augmented Generation (RAG): ສົມທົບການສົມເຫດສົມຜົນແບບຈໍາລອງກັບຊິ້ນເອກະສານທີ່ຖືກດັດສະນີແລະການຝັງເພື່ອຜະລິດຄໍາຕອບທີ່ເປັນພື້ນຖານ.
ໜ່ວຍຄວາມຈຳທົ່ວໂລກແບບຄົງທີ່: ບັນທຶກຂໍ້ເທັດຈິງ, ເອກະສານ, ແລະຄວາມຮູ້ໄວ້ໃນໜ່ວຍຄວາມຈຳພາຍໃນອຸປະກອນ (Room DB) ແບບຄົງທີ່, ສຳລັບການເອີ້ນຄືນໃນໄລຍະຍາວໃນທົ່ວເຊດຊັນ.
Embeddings & Vector Search: ສ້າງການຝັງ, ດັດສະນີເນື້ອຫາຢູ່ໃນທ້ອງຖິ່ນ, ແລະເອົາເອກະສານທີ່ກ່ຽວຂ້ອງທີ່ສຸດກັບການຄົ້ນຫາທີ່ຄ້າຍຄືກັນທີ່ມີປະສິດທິພາບ.
ຮອງຮັບ Multimodal: ໃຊ້ຕົວແບບຂໍ້ຄວາມ + ຮູບພາບ (Gemma-3n) ສໍາລັບການໂຕ້ຕອບທີ່ອຸດົມສົມບູນກວ່າເມື່ອມີໃຫ້.
ການເຊື່ອມໂຍງການຄົ້ນຫາເວັບ: ເສີມຄວາມຮູ້ໃນທ້ອງຖິ່ນດ້ວຍຜົນການຄົ້ນຫາເວັບທີ່ຂັບເຄື່ອນດ້ວຍ DuckDuckGo ເພື່ອດຶງຂໍ້ມູນທີ່ທັນສະໄຫມສໍາລັບການສອບຖາມ RAG ແລະຄໍາຕອບທັນທີ.
Offline-Ready: ເຮັດວຽກໂດຍບໍ່ມີການເຂົ້າເຖິງເຄືອຂ່າຍ — ຕົວແບບ, ຄວາມຊົງຈໍາ, ແລະດັດຊະນີຍັງຄົງຢູ່ໃນອຸປະກອນ.
ການເລັ່ງ GPU (ທາງເລືອກ): ໄດ້ຮັບຜົນປະໂຫຍດຈາກການເລັ່ງຮາດແວທີ່ຮອງຮັບ — ເພື່ອຜົນໄດ້ຮັບທີ່ດີທີ່ສຸດກັບຕົວແບບທີ່ມີ GPU ທີ່ມີຂະໜາດໃຫຍ່ກວ່າ ພວກເຮົາແນະນຳອຸປະກອນທີ່ມີ RAM ຢ່າງໜ້ອຍ 8GB.
Privacy-First Design: ຫນ່ວຍຄວາມຈໍາ, ການຝັງ, ແລະດັດຊະນີ RAG ຍັງຄົງຢູ່ໃນທ້ອງຖິ່ນໂດຍຄ່າເລີ່ມຕົ້ນ; ບໍ່ມີການອັບໂຫລດຄລາວເວັ້ນເສຍແຕ່ວ່າທ່ານເລືອກທີ່ຈະແບ່ງປັນຫຼືສົ່ງອອກຂໍ້ມູນຢ່າງຊັດເຈນ.
Long-Context Handling: ຮອງຮັບຕົວແບບທີ່ມີໜ້າຕ່າງຂະໜາດໃຫຍ່ ເພື່ອໃຫ້ຜູ້ຊ່ວຍສາມາດຫາເຫດຜົນໃນເອກະສານ ແລະປະຫວັດອັນກວ້າງຂວາງ.
Developer-Friendly: ປະສົມປະສານກັບ inference ທ້ອງຖິ່ນ, indexing, ແລະ retrieval ກໍລະນີການນໍາໃຊ້ສໍາລັບ app ທີ່ຕ້ອງການເອກະຊົນ, offline AI.
ເປັນຫຍັງຕ້ອງເລືອກ LLM Hub? LLM Hub ຖືກສ້າງຂຶ້ນເພື່ອສົ່ງ AI ສ່ວນຕົວ, ຖືກຕ້ອງ, ແລະປ່ຽນແປງໄດ້ໃນມືຖື. ມັນລວມຄວາມໄວຂອງການສັງລວມໃນທ້ອງຖິ່ນກັບພື້ນຖານຄວາມເປັນຈິງຂອງລະບົບການດຶງຂໍ້ມູນແລະຄວາມສະດວກສະບາຍຂອງຄວາມຊົງຈໍາຄົງທີ່ - ເຫມາະສໍາລັບພະນັກງານຄວາມຮູ້, ຜູ້ໃຊ້ທີ່ມີສະຕິຄວາມເປັນສ່ວນຕົວ, ແລະຜູ້ພັດທະນາສ້າງຄຸນສົມບັດ AI ທ້ອງຖິ່ນທໍາອິດ.
ຕົວແບບທີ່ຮອງຮັບ: Gemma-3, Gemma-3n (multimodal), Llama-3.2, Phi-4 Mini — ເລືອກຮູບແບບທີ່ເໝາະສົມກັບຄວາມສາມາດຂອງອຸປະກອນ ແລະຄວາມຕ້ອງການຂອງບໍລິບົດ.
ອັບເດດແລ້ວເມື່ອ
16 ກ.ຍ. 2025