LLM Hub

500+
Descărcări
Evaluarea conținutului
Toți
Captură de ecran
Captură de ecran
Captură de ecran
Captură de ecran
Captură de ecran
Captură de ecran
Captură de ecran
Captură de ecran
Captură de ecran

Despre aplicație

LLM Hub aduce inteligența artificială de nivel profesional direct pe dispozitivul tău Android — este privată, rapidă și rulează complet local. Poți folosi modele lingvistice mari (LLM) moderne direct pe telefon (Gemma-3, Gemma-3n multimodal, Llama-3.2, Phi-4 Mini) cu ferestre de context extinse, memorie globală persistentă și generare augmentată cu recuperare (RAG) care își bazează răspunsurile pe documente indexate stocate local. Creează și salvează reprezentări vectoriale (embeddings) pentru documente și notițe, efectuează căutări locale de similaritate vectorială și îmbogățește răspunsurile cu informații de pe web, folosind căutarea DuckDuckGo, atunci când ai nevoie de date actuale. Tot ce este important rămâne pe telefonul tău, cu excepția cazului în care alegi explicit să exporti datele: memoria, indexurile și embeddings-urile locale îți protejează confidențialitatea, oferind în același timp relevanță și precizie ridicate.

Funcționalități Cheie

Inferență LLM pe dispozitiv: Răspunsuri rapide și private, fără a depinde de cloud; alege modelele care se potrivesc dispozitivului și nevoilor tale.
Generare Augmentată cu Recuperare (RAG): Combină raționamentul modelului cu fragmente de documente indexate și embeddings pentru a oferi răspunsuri bazate pe fapte concrete.
Memorie Globală Persistentă: Salvează informații, documente și cunoștințe într-o bază de date locală persistentă (Room DB) pentru a le putea accesa pe termen lung, indiferent de sesiune.
Embeddings și Căutare Vectorială: Generează embeddings, indexează conținutul local și găsește rapid cele mai relevante documente folosind căutarea eficientă de similaritate.
Suport Multimodal: Utilizează modele capabile să proceseze atât text, cât și imagini (Gemma-3n) pentru interacțiuni mai complexe, acolo unde sunt disponibile.
Integrare Căutare Web: Completează informațiile locale cu rezultate de pe web, oferite de DuckDuckGo, pentru a obține date actualizate pentru interogările RAG și răspunsuri rapide.
Funcționează Offline: Poți folosi aplicația fără conexiune la internet — modelele, memoria și indexurile sunt stocate pe dispozitiv.
Accelerare GPU (opțional): Beneficiază de accelerarea hardware acolo unde este suportată — pentru cele mai bune performanțe cu modele mai mari care folosesc GPU, recomandăm dispozitive cu cel puțin 8GB RAM.
Design Centrat pe Confidențialitate: Memoria, embeddings-urile și indexurile RAG rămân locale în mod implicit; datele nu sunt încărcate în cloud decât dacă alegi explicit să le partajezi sau să le exporti.
Gestionare Context Extins: Suport pentru modele cu ferestre de context mari, permițând asistentului să analizeze documente și istorice extinse.
Prietenos cu Dezvoltatorii: Se integrează perfect în scenarii de utilizare care necesită inferență locală, indexare și recuperare pentru aplicații ce au nevoie de AI privat și offline.
De ce să alegi LLM Hub? LLM Hub a fost creat pentru a oferi o experiență AI privată, precisă și flexibilă pe dispozitivele mobile. Combină viteza procesării locale cu acuratețea sistemelor bazate pe recuperarea informațiilor și comoditatea memoriei persistente — fiind ideal pentru profesioniștii care lucrează cu informații, utilizatorii preocupați de confidențialitate și dezvoltatorii care creează funcționalități AI locale.

Modele Suportate: Gemma-3, Gemma-3n (multimodal), Llama-3.2, Phi-4 Mini — alege modelul care se potrivește cel mai bine capacităților dispozitivului tău și nevoilor de context.
Ultima actualizare
16 sept. 2025

Siguranța datelor

Siguranța începe cu înțelegerea modului în care dezvoltatorii îți colectează și trimit datele. Practicile de securitate și confidențialitate a datelor pot varia în funcție de modul de utilizare, de regiune și de vârsta ta. Dezvoltatorul a oferit aceste informații și le poate actualiza în timp.
Nu sunt trimise date terțelor părți
Află mai multe despre cum declară dezvoltatorii trimiterea
Nu au fost colectate date
Află mai multe despre cum declară dezvoltatorii colectarea

Noutăți


- Fereastra de context Phi-4 Mini Max extinsă la 4096 și activat backend GPU
- Configurația de încărcare a modelelor reține acum ultimele setări
- Adăugată traducerea în italiană