LLM Hub นำ AI ระดับโปรดักชันมาสู่อุปกรณ์ Android ของคุณโดยตรง ทั้งเป็นส่วนตัว รวดเร็ว และทำงานแบบออฟไลน์เต็มรูปแบบ สามารถรัน LLM รุ่นใหม่ๆ บนอุปกรณ์ได้เลย (เช่น Gemma-3, Gemma-3n แบบมัลติโมดัล, Llama-3.2, Phi-4 Mini) พร้อมรองรับบริบทขนาดใหญ่ มีหน่วยความจำส่วนกลางที่คงอยู่ และฟังก์ชัน Retrieval-Augmented Generation (RAG) ที่ช่วยให้คำตอบอ้างอิงจากเอกสารที่จัดทำดัชนีและจัดเก็บไว้ในเครื่อง สร้างและจัดเก็บ embeddings สำหรับเอกสารและโน้ต ค้นหาความคล้ายคลึงของเวกเตอร์ได้ในเครื่อง และเสริมการตอบสนองด้วยการค้นหาเว็บผ่าน DuckDuckGo เมื่อต้องการข้อมูลล่าสุด ทุกข้อมูลสำคัญจะยังคงอยู่ในโทรศัพท์ของคุณ เว้นแต่คุณจะเลือกส่งออกเอง หน่วยความจำ ดัชนี และ embeddings ที่ทำงานแบบออฟไลน์เท่านั้น ช่วยปกป้องความเป็นส่วนตัวของคุณ พร้อมให้ผลลัพธ์ที่เกี่ยวข้องและแม่นยำสูง
คุณสมบัติเด่น
ประมวลผล LLM บนอุปกรณ์: ตอบสนองรวดเร็ว เป็นส่วนตัว ไม่ต้องพึ่งพาคลาวด์ เลือกรุ่นที่เหมาะกับอุปกรณ์และความต้องการของคุณได้
Retrieval-Augmented Generation (RAG): ผสานการให้เหตุผลของโมเดลเข้ากับส่วนของเอกสารที่จัดทำดัชนีและ embeddings เพื่อสร้างคำตอบที่อ้างอิงข้อเท็จจริง
หน่วยความจำส่วนกลางที่คงอยู่: บันทึกข้อเท็จจริง เอกสาร และความรู้ลงในหน่วยความจำถาวรบนอุปกรณ์ (Room DB) เพื่อเรียกใช้ซ้ำได้ในภายหลัง
Embeddings และ Vector Search: สร้าง embeddings จัดทำดัชนีเนื้อหาในเครื่อง และค้นหาเอกสารที่เกี่ยวข้องที่สุดได้อย่างมีประสิทธิภาพด้วยการค้นหาความคล้ายคลึง
รองรับมัลติโมดัล: ใช้โมเดลที่รองรับทั้งข้อความและรูปภาพ (Gemma-3n) เพื่อการโต้ตอบที่หลากหลายยิ่งขึ้น (หากมี)
เชื่อมต่อการค้นหาเว็บ: เสริมข้อมูลในเครื่องด้วยผลการค้นหาเว็บจาก DuckDuckGo เพื่อดึงข้อมูลล่าสุดสำหรับคำถาม RAG และคำตอบทันที
ทำงานแบบออฟไลน์ได้: ใช้งานได้โดยไม่ต้องเชื่อมต่ออินเทอร์เน็ต โมเดล หน่วยความจำ และดัชนีทั้งหมดจัดเก็บอยู่ในอุปกรณ์
รองรับ GPU Acceleration (ไม่บังคับ): ใช้ประโยชน์จากการเร่งความเร็วฮาร์ดแวร์ในอุปกรณ์ที่รองรับ เพื่อผลลัพธ์ที่ดีที่สุดกับโมเดลขนาดใหญ่ที่ใช้ GPU แนะนำอุปกรณ์ที่มี RAM อย่างน้อย 8GB
ออกแบบโดยคำนึงถึงความเป็นส่วนตัว: หน่วยความจำ embeddings และดัชนี RAG จะเก็บไว้ในเครื่องเป็นค่าเริ่มต้น ไม่มีการอัปโหลดขึ้นคลาวด์ เว้นแต่คุณจะเลือกแชร์หรือส่งออกข้อมูลเอง
รองรับบริบทแบบยาว: รองรับโมเดลที่มีหน้าต่างบริบทขนาดใหญ่ ช่วยให้ผู้ช่วยสามารถประมวลผลเอกสารและประวัติการสนทนาที่ยาวได้
เป็นมิตรกับนักพัฒนา: ผสานรวมกับการประมวลผล การจัดทำดัชนี และการดึงข้อมูลในเครื่อง เหมาะสำหรับแอปที่ต้องการ AI ที่เป็นส่วนตัวและทำงานแบบออฟไลน์
ทำไมต้องเลือก LLM Hub? LLM Hub สร้างขึ้นเพื่อมอบ AI ที่เป็นส่วนตัว แม่นยำ และยืดหยุ่นบนมือถือ ผสานความเร็วของการประมวลผลในเครื่องเข้ากับการอ้างอิงข้อเท็จจริงจากระบบ Retrieval และความสะดวกสบายของหน่วยความจำถาวร เหมาะสำหรับผู้ที่ทำงานกับข้อมูล ผู้ใช้ที่ใส่ใจความเป็นส่วนตัว และนักพัฒนาที่สร้างฟีเจอร์ AI ที่เน้นการทำงานแบบออฟไลน์เป็นหลัก
โมเดลที่รองรับ: Gemma-3, Gemma-3n (มัลติโมดัล), Llama-3.2, Phi-4 Mini เลือกรุ่นที่เหมาะสมกับความสามารถของอุปกรณ์และความต้องการด้านบริบทของคุณได้เลย