LLM Hub porta l'IA di livello professionale direttamente sul tuo dispositivo Android: privata, veloce e completamente locale. Esegui LLM moderni direttamente sul dispositivo (Gemma-3, Gemma-3n multimodale, Llama-3.2, Phi-4 Mini) con ampie finestre di contesto, memoria globale persistente e generazione aumentata da recupero (RAG) che basa le risposte su documenti indicizzati archiviati localmente. Crea e archivia embeddings per documenti e note, esegui ricerche di similarità vettoriale in locale e arricchisci le risposte con la ricerca web basata su DuckDuckGo quando hai bisogno di informazioni aggiornate. Tutto ciò che è importante rimane sul tuo telefono a meno che tu non lo esporti esplicitamente: memoria, indici ed embeddings solo locali proteggono la tua privacy garantendo elevata pertinenza e accuratezza.
Caratteristiche Principali
Inferenza LLM sul dispositivo: Risposte veloci e private senza dipendere dal cloud; scegli i modelli più adatti al tuo dispositivo e alle tue esigenze.
Generazione Aumentata da Recupero (RAG): Combina il ragionamento del modello con frammenti di documenti indicizzati ed embeddings per produrre risposte basate sui fatti.
Memoria Globale Persistente: Salva fatti, documenti e conoscenze in una memoria persistente e locale (Room DB) per richiamarli facilmente tra una sessione e l'altra.
Embeddings e Ricerca Vettoriale: Genera embeddings, indicizza contenuti localmente e recupera i documenti più rilevanti con un'efficiente ricerca di similarità.
Supporto Multimodale: Utilizza modelli in grado di gestire testo e immagini (Gemma-3n) per interazioni più ricche, quando disponibili.
Integrazione Ricerca Web: Integra le conoscenze locali con i risultati web di DuckDuckGo per ottenere informazioni aggiornate per le query RAG e risposte immediate.
Pronto per l'Offline: Funziona senza accesso alla rete: modelli, memoria e indici persistono sul dispositivo.
Accelerazione GPU (opzionale): Sfrutta l'accelerazione hardware dove supportata; per i migliori risultati con modelli più grandi che sfruttano la GPU, consigliamo dispositivi con almeno 8 GB di RAM.
Design Orientato alla Privacy: Memoria, embeddings e indici RAG rimangono locali per impostazione predefinita; nessun caricamento sul cloud a meno che tu non scelga esplicitamente di condividere o esportare dati.
Gestione Contesto Lungo: Supporto per modelli con ampie finestre di contesto, in modo che l'assistente possa elaborare documenti e cronologie estese.
Adatto agli Sviluppatori: Si integra con casi d'uso di inferenza, indicizzazione e recupero locali per app che richiedono IA privata e offline.
Perché scegliere LLM Hub? LLM Hub è progettato per offrire un'IA privata, accurata e flessibile su dispositivi mobili. Unisce la velocità dell'inferenza locale con la solidità fattuale dei sistemi basati sul recupero e la comodità della memoria persistente, rendendolo ideale per professionisti della conoscenza, utenti attenti alla privacy e sviluppatori che creano funzionalità IA "local-first".
Modelli Supportati: Gemma-3, Gemma-3n (multimodale), Llama-3.2, Phi-4 Mini: scegli il modello più adatto alle capacità del tuo dispositivo e alle tue esigenze di contesto.
Ultimo aggiornamento
16 set 2025