LLM Hub menghadirkan AI kelas produksi langsung ke perangkat Android Anda — bersifat pribadi, cepat, dan sepenuhnya lokal. Jalankan LLM modern di perangkat (Gemma-3, Gemma-3n multimodal, Llama-3.2, Phi-4 Mini) dengan jendela konteks yang besar, memori global yang persisten, dan generasi yang diperkaya pengambilan (RAG) yang mendasarkan jawaban pada dokumen terindeks yang tersimpan di perangkat. Buat dan simpan embedding untuk dokumen dan catatan, lakukan pencarian kemiripan vektor secara lokal, dan perkaya respons dengan pencarian web bertenaga DuckDuckGo saat Anda membutuhkan fakta terkini. Semua yang penting tetap berada di ponsel Anda kecuali Anda secara eksplisit mengekspornya: memori, indeks, dan embedding yang hanya lokal melindungi privasi Anda sambil memberikan relevansi dan akurasi yang tinggi.
Fitur Utama
Inferensi LLM di perangkat: Respons cepat dan pribadi tanpa ketergantungan pada cloud; pilih model yang sesuai dengan perangkat dan kebutuhan Anda.
Generasi yang Diperkaya Pengambilan (RAG): Gabungkan penalaran model dengan potongan dokumen terindeks dan embedding untuk menghasilkan jawaban yang didasarkan pada fakta.
Memori Global Persisten: Simpan fakta, dokumen, dan pengetahuan ke memori persisten yang tersimpan di perangkat (Room DB) untuk ingatan jangka panjang di seluruh sesi.
Embedding & Pencarian Vektor: Hasilkan embedding, indeks konten secara lokal, dan ambil dokumen yang paling relevan dengan pencarian kemiripan yang efisien.
Dukungan Multimodal: Gunakan model yang mampu memproses teks + gambar (Gemma-3n) untuk interaksi yang lebih kaya saat tersedia.
Integrasi Pencarian Web: Lengkapi pengetahuan lokal dengan hasil web bertenaga DuckDuckGo untuk mengambil informasi terbaru untuk kueri RAG dan jawaban instan.
Siap Offline: Bekerja tanpa akses jaringan — model, memori, dan indeks tetap tersimpan di perangkat.
Akselerasi GPU (opsional): Manfaatkan akselerasi perangkat keras di mana didukung — untuk hasil terbaik dengan model yang didukung GPU yang lebih besar, kami merekomendasikan perangkat dengan RAM minimal 8GB.
Desain Mengutamakan Privasi: Memori, embedding, dan indeks RAG tetap lokal secara default; tidak ada unggahan ke cloud kecuali Anda secara eksplisit memilih untuk berbagi atau mengekspor data.
Penanganan Konteks Panjang: Dukungan untuk model dengan jendela konteks yang besar sehingga asisten dapat bernalar atas dokumen dan riwayat yang luas.
Ramah Pengembang: Berintegrasi dengan kasus penggunaan inferensi, pengindeksan, dan pengambilan lokal untuk aplikasi yang membutuhkan AI pribadi dan offline.
Mengapa memilih LLM Hub? LLM Hub dibangun untuk menghadirkan AI yang pribadi, akurat, dan fleksibel di perangkat seluler. Aplikasi ini menggabungkan kecepatan inferensi lokal dengan dasar faktual dari sistem berbasis pengambilan dan kenyamanan memori persisten — ideal untuk pekerja pengetahuan, pengguna yang sadar privasi, dan pengembang yang membangun fitur AI yang mengutamakan lokal.
Model yang Didukung: Gemma-3, Gemma-3n (multimodal), Llama-3.2, Phi-4 Mini — pilih model yang sesuai dengan kemampuan perangkat dan kebutuhan konteks Anda.