LLM Hub

500+
Download
Classificazione dei contenuti
Per tutti
Immagine screenshot
Immagine screenshot
Immagine screenshot
Immagine screenshot
Immagine screenshot
Immagine screenshot
Immagine screenshot
Immagine screenshot
Immagine screenshot

Informazioni sull'app

LLM Hub porta l'IA di livello professionale direttamente sul tuo dispositivo Android: privata, veloce e completamente locale. Esegui LLM moderni direttamente sul dispositivo (Gemma-3, Gemma-3n multimodale, Llama-3.2, Phi-4 Mini) con ampie finestre di contesto, memoria globale persistente e generazione aumentata da recupero (RAG) che basa le risposte su documenti indicizzati archiviati localmente. Crea e archivia embeddings per documenti e note, esegui ricerche di similarità vettoriale in locale e arricchisci le risposte con la ricerca web basata su DuckDuckGo quando hai bisogno di informazioni aggiornate. Tutto ciò che è importante rimane sul tuo telefono a meno che tu non lo esporti esplicitamente: memoria, indici ed embeddings solo locali proteggono la tua privacy garantendo elevata pertinenza e accuratezza.

Caratteristiche Principali

Inferenza LLM sul dispositivo: Risposte veloci e private senza dipendere dal cloud; scegli i modelli più adatti al tuo dispositivo e alle tue esigenze.
Generazione Aumentata da Recupero (RAG): Combina il ragionamento del modello con frammenti di documenti indicizzati ed embeddings per produrre risposte basate sui fatti.
Memoria Globale Persistente: Salva fatti, documenti e conoscenze in una memoria persistente e locale (Room DB) per richiamarli facilmente tra una sessione e l'altra.
Embeddings e Ricerca Vettoriale: Genera embeddings, indicizza contenuti localmente e recupera i documenti più rilevanti con un'efficiente ricerca di similarità.
Supporto Multimodale: Utilizza modelli in grado di gestire testo e immagini (Gemma-3n) per interazioni più ricche, quando disponibili.
Integrazione Ricerca Web: Integra le conoscenze locali con i risultati web di DuckDuckGo per ottenere informazioni aggiornate per le query RAG e risposte immediate.
Pronto per l'Offline: Funziona senza accesso alla rete: modelli, memoria e indici persistono sul dispositivo.
Accelerazione GPU (opzionale): Sfrutta l'accelerazione hardware dove supportata; per i migliori risultati con modelli più grandi che sfruttano la GPU, consigliamo dispositivi con almeno 8 GB di RAM.
Design Orientato alla Privacy: Memoria, embeddings e indici RAG rimangono locali per impostazione predefinita; nessun caricamento sul cloud a meno che tu non scelga esplicitamente di condividere o esportare dati.
Gestione Contesto Lungo: Supporto per modelli con ampie finestre di contesto, in modo che l'assistente possa elaborare documenti e cronologie estese.
Adatto agli Sviluppatori: Si integra con casi d'uso di inferenza, indicizzazione e recupero locali per app che richiedono IA privata e offline.
Perché scegliere LLM Hub? LLM Hub è progettato per offrire un'IA privata, accurata e flessibile su dispositivi mobili. Unisce la velocità dell'inferenza locale con la solidità fattuale dei sistemi basati sul recupero e la comodità della memoria persistente, rendendolo ideale per professionisti della conoscenza, utenti attenti alla privacy e sviluppatori che creano funzionalità IA "local-first".

Modelli Supportati: Gemma-3, Gemma-3n (multimodale), Llama-3.2, Phi-4 Mini: scegli il modello più adatto alle capacità del tuo dispositivo e alle tue esigenze di contesto.
Ultimo aggiornamento
16 set 2025

Sicurezza dei dati

Il primo passo verso la sicurezza è capire in che modo gli sviluppatori raccolgono e condividono i tuoi dati. Le misure di protezione della privacy e della sicurezza dei dati possono variare in base all'utilizzo, alla regione e all'età. Lo sviluppatore ha fornito queste informazioni e potrebbe aggiornarle nel tempo.
Nessun dato condiviso con terze parti
Scopri di più sulla modalità di condivisione dei dati dichiarata dagli sviluppatori
Nessun dato raccolto
Scopri di più sulla modalità di raccolta dei dati dichiarata dagli sviluppatori

Novità


- Finestra di contesto di Phi-4 Mini Max aggiornata a 4096 e abilitato backend GPU
- La configurazione di caricamento dei modelli ora ricorda le tue ultime impostazioni
- Aggiunta traduzione in italiano