LLM Hub lleva la IA de nivel profesional directamente a tu dispositivo Android: privada, rápida y completamente local. Ejecuta modelos de lenguaje grandes (LLMs) modernos en tu dispositivo (Gemma-3, Gemma-3n multimodal, Llama-3.2, Phi-4 Mini) con amplias ventanas de contexto, memoria global persistente y generación aumentada por recuperación (RAG) que basa las respuestas en documentos indexados almacenados localmente. Crea y guarda embeddings para documentos y notas, realiza búsquedas de similitud vectorial en el dispositivo y enriquece las respuestas con búsquedas web de DuckDuckGo cuando necesites información actualizada. Todo lo importante permanece en tu teléfono a menos que decidas exportarlo explícitamente: la memoria, los índices y los embeddings, al ser solo locales, protegen tu privacidad a la vez que ofrecen alta relevancia y precisión.
Características principales
Inferencia de LLM en el dispositivo: Respuestas rápidas y privadas sin depender de la nube; elige los modelos que mejor se adapten a tu dispositivo y necesidades.
Generación Aumentada por Recuperación (RAG): Combina el razonamiento del modelo con fragmentos de documentos indexados y embeddings para generar respuestas basadas en hechos.
Memoria Global Persistente: Guarda hechos, documentos y conocimientos en una memoria persistente y local (Room DB) para recordarlos a largo plazo entre sesiones.
Embeddings y búsqueda vectorial: Genera embeddings, indexa contenido localmente y recupera los documentos más relevantes mediante una búsqueda de similitud eficiente.
Soporte multimodal: Utiliza modelos capaces de procesar texto e imágenes (Gemma-3n) para interacciones más completas cuando estén disponibles.
Integración de búsqueda web: Complementa el conocimiento local con resultados web de DuckDuckGo para obtener información actualizada en consultas RAG y respuestas instantáneas.
Funciona sin conexión: Trabaja sin necesidad de conexión a internet; los modelos, la memoria y los índices se mantienen en el dispositivo.
Aceleración por GPU (opcional): Aprovecha la aceleración por hardware donde sea compatible; para obtener los mejores resultados con modelos más grandes que usan GPU, recomendamos dispositivos con al menos 8 GB de RAM.
Diseño centrado en la privacidad: La memoria, los embeddings y los índices RAG permanecen locales por defecto; no se suben a la nube a menos que elijas explícitamente compartir o exportar datos.
Manejo de contexto amplio: Soporte para modelos con grandes ventanas de contexto, permitiendo al asistente razonar sobre documentos e historiales extensos.
Ideal para desarrolladores: Se integra con casos de uso de inferencia, indexación y recuperación locales para aplicaciones que requieren IA privada y sin conexión.
¿Por qué elegir LLM Hub? LLM Hub está diseñado para ofrecer IA privada, precisa y flexible en dispositivos móviles. Combina la velocidad de la inferencia local con la fiabilidad de los sistemas basados en recuperación y la comodidad de la memoria persistente, lo que lo hace ideal para profesionales del conocimiento, usuarios preocupados por la privacidad y desarrolladores que crean funcionalidades de IA con prioridad local.
Modelos compatibles: Gemma-3, Gemma-3n (multimodal), Llama-3.2, Phi-4 Mini; elige el modelo que mejor se adapte a las capacidades de tu dispositivo y a tus necesidades de contexto.
Última actualización
16 sept 2025