LLM Hub

500+
Téléchargements
Classification du contenu
Tout public
Capture d'écran
Capture d'écran
Capture d'écran
Capture d'écran
Capture d'écran
Capture d'écran
Capture d'écran
Capture d'écran
Capture d'écran

À propos de l'application

LLM Hub met l'IA de qualité professionnelle directement sur votre appareil Android — de manière privée, rapide et entièrement locale. Exécutez des LLM modernes directement sur votre appareil (Gemma-3, Gemma-3n multimodal, Llama-3.2, Phi-4 Mini) avec de larges fenêtres de contexte, une mémoire globale persistante et une génération augmentée par récupération (RAG) qui ancre les réponses dans des documents indexés stockés localement. Créez et stockez des embeddings pour vos documents et notes, effectuez des recherches de similarité vectorielle en local, et enrichissez les réponses avec la recherche web via DuckDuckGo lorsque vous avez besoin d'informations en temps réel. Tout ce qui est important reste sur votre téléphone, sauf si vous choisissez explicitement de l'exporter : la mémoire, les index et les embeddings restent strictement locaux, protégeant ainsi votre vie privée tout en garantissant une pertinence et une précision élevées.

Fonctionnalités Clés

Inférence LLM sur l'appareil : Des réponses rapides et privées sans dépendance au cloud ; choisissez les modèles adaptés à votre appareil et à vos besoins.
Génération Augmentée par Récupération (RAG) : Combinez le raisonnement du modèle avec des extraits de documents indexés et des embeddings pour fournir des réponses basées sur des faits concrets.
Mémoire Globale Persistante : Enregistrez des faits, des documents et des connaissances dans une mémoire persistante et locale à l'appareil (base de données Room) pour un rappel à long terme entre les sessions.
Embeddings et Recherche Vectorielle : Générez des embeddings, indexez votre contenu localement et retrouvez les documents les plus pertinents grâce à une recherche de similarité efficace.
Prise en charge Multimodale : Utilisez des modèles capables de traiter texte et images (Gemma-3n) pour des interactions plus riches, si disponibles.
Intégration de la Recherche Web : Complétez vos connaissances locales avec les résultats web de DuckDuckGo pour obtenir des informations à jour pour les requêtes RAG et les réponses instantanées.
Fonctionnement Hors Ligne : Travaillez sans connexion réseau — les modèles, la mémoire et les index sont stockés sur l'appareil.
Accélération GPU (optionnel) : Profitez de l'accélération matérielle là où elle est prise en charge — pour de meilleurs résultats avec les modèles plus volumineux utilisant le GPU, nous recommandons des appareils avec au moins 8 Go de RAM.
Conception axée sur la Confidentialité : La mémoire, les embeddings et les index RAG restent locaux par défaut ; aucune donnée n'est téléchargée vers le cloud, sauf si vous choisissez explicitement de partager ou d'exporter des informations.
Gestion du Contexte Long : Prise en charge des modèles avec de larges fenêtres de contexte, permettant à l'assistant de raisonner sur des documents et des historiques étendus.
Adapté aux Développeurs : S'intègre parfaitement aux cas d'utilisation d'inférence locale, d'indexation et de récupération pour les applications nécessitant une IA privée et hors ligne.
Pourquoi choisir LLM Hub ? LLM Hub est conçu pour offrir une IA privée, précise et flexible sur mobile. Il combine la rapidité de l'inférence locale avec l'ancrage factuel des systèmes basés sur la récupération et la commodité d'une mémoire persistante — idéal pour les professionnels de la connaissance, les utilisateurs soucieux de leur vie privée et les développeurs créant des fonctionnalités d'IA privilégiant le local.

Modèles Pris en Charge : Gemma-3, Gemma-3n (multimodal), Llama-3.2, Phi-4 Mini — choisissez le modèle qui correspond aux capacités de votre appareil et à vos besoins en contexte.
Date de mise à jour
16 sept. 2025

Sécurité des données

La sécurité, c'est d'abord comprendre comment les développeurs collectent et partagent vos données. Les pratiques concernant leur confidentialité et leur protection peuvent varier selon votre utilisation, votre région et votre âge. Le développeur a fourni ces informations et peut les modifier ultérieurement.
Aucune donnée partagée avec des tiers
En savoir plus sur la manière dont les développeurs déclarent le partage
Aucune donnée collectée
En savoir plus sur la manière dont les développeurs déclarent la collecte

Nouveautés


- Fenêtre de contexte de Phi-4 Mini Max étendue à 4096 et backend GPU activé
- La configuration de chargement des modèles se souvient désormais de vos derniers réglages
- Ajout de la traduction en italien

Assistance de l'appli

À propos du développeur
Yuan Qian
timmyboy0623@gmail.com
33 Magdalena Place, Rowville Rowville Clayton VIC 3168 Australia
undefined

Applications similaires