LLM Hub met l'IA de qualité professionnelle directement sur votre appareil Android — de manière privée, rapide et entièrement locale. Exécutez des LLM modernes directement sur votre appareil (Gemma-3, Gemma-3n multimodal, Llama-3.2, Phi-4 Mini) avec de larges fenêtres de contexte, une mémoire globale persistante et une génération augmentée par récupération (RAG) qui ancre les réponses dans des documents indexés stockés localement. Créez et stockez des embeddings pour vos documents et notes, effectuez des recherches de similarité vectorielle en local, et enrichissez les réponses avec la recherche web via DuckDuckGo lorsque vous avez besoin d'informations en temps réel. Tout ce qui est important reste sur votre téléphone, sauf si vous choisissez explicitement de l'exporter : la mémoire, les index et les embeddings restent strictement locaux, protégeant ainsi votre vie privée tout en garantissant une pertinence et une précision élevées.
Fonctionnalités Clés
Inférence LLM sur l'appareil : Des réponses rapides et privées sans dépendance au cloud ; choisissez les modèles adaptés à votre appareil et à vos besoins.
Génération Augmentée par Récupération (RAG) : Combinez le raisonnement du modèle avec des extraits de documents indexés et des embeddings pour fournir des réponses basées sur des faits concrets.
Mémoire Globale Persistante : Enregistrez des faits, des documents et des connaissances dans une mémoire persistante et locale à l'appareil (base de données Room) pour un rappel à long terme entre les sessions.
Embeddings et Recherche Vectorielle : Générez des embeddings, indexez votre contenu localement et retrouvez les documents les plus pertinents grâce à une recherche de similarité efficace.
Prise en charge Multimodale : Utilisez des modèles capables de traiter texte et images (Gemma-3n) pour des interactions plus riches, si disponibles.
Intégration de la Recherche Web : Complétez vos connaissances locales avec les résultats web de DuckDuckGo pour obtenir des informations à jour pour les requêtes RAG et les réponses instantanées.
Fonctionnement Hors Ligne : Travaillez sans connexion réseau — les modèles, la mémoire et les index sont stockés sur l'appareil.
Accélération GPU (optionnel) : Profitez de l'accélération matérielle là où elle est prise en charge — pour de meilleurs résultats avec les modèles plus volumineux utilisant le GPU, nous recommandons des appareils avec au moins 8 Go de RAM.
Conception axée sur la Confidentialité : La mémoire, les embeddings et les index RAG restent locaux par défaut ; aucune donnée n'est téléchargée vers le cloud, sauf si vous choisissez explicitement de partager ou d'exporter des informations.
Gestion du Contexte Long : Prise en charge des modèles avec de larges fenêtres de contexte, permettant à l'assistant de raisonner sur des documents et des historiques étendus.
Adapté aux Développeurs : S'intègre parfaitement aux cas d'utilisation d'inférence locale, d'indexation et de récupération pour les applications nécessitant une IA privée et hors ligne.
Pourquoi choisir LLM Hub ? LLM Hub est conçu pour offrir une IA privée, précise et flexible sur mobile. Il combine la rapidité de l'inférence locale avec l'ancrage factuel des systèmes basés sur la récupération et la commodité d'une mémoire persistante — idéal pour les professionnels de la connaissance, les utilisateurs soucieux de leur vie privée et les développeurs créant des fonctionnalités d'IA privilégiant le local.
Modèles Pris en Charge : Gemma-3, Gemma-3n (multimodal), Llama-3.2, Phi-4 Mini — choisissez le modèle qui correspond aux capacités de votre appareil et à vos besoins en contexte.
Date de mise à jour
16 sept. 2025