LLM Hub lleva la IA de nivel profesional directamente a tu dispositivo Android: privada, rápida y completamente local. Ejecuta modelos LLM modernos en tu dispositivo (Gemma-3, Gemma-3n multimodal, Llama-3.2, Phi-4 Mini) con amplias ventanas de contexto, memoria global persistente y generación aumentada por recuperación (RAG) que basa las respuestas en documentos indexados almacenados localmente. Crea y guarda embeddings para tus documentos y notas, realiza búsquedas de similitud vectorial en tu dispositivo y enriquece las respuestas con búsquedas web de DuckDuckGo cuando necesites información actualizada. Todo lo importante se mantiene en tu teléfono a menos que decidas exportarlo: la memoria, los índices y los embeddings se quedan en tu dispositivo, protegiendo tu privacidad y ofreciendo alta relevancia y precisión.
Características Principales
Inferencia de LLM en el dispositivo: Respuestas rápidas y privadas sin depender de la nube; elige los modelos que mejor se adapten a tu dispositivo y necesidades.
Generación Aumentada por Recuperación (RAG): Combina el razonamiento del modelo con fragmentos de documentos indexados y embeddings para generar respuestas basadas en hechos concretos.
Memoria Global Persistente: Guarda información, documentos y conocimientos en una memoria persistente y local (Room DB) para recordarlos a largo plazo en diferentes sesiones.
Embeddings y Búsqueda Vectorial: Genera embeddings, indexa contenido localmente y encuentra los documentos más relevantes con una búsqueda de similitud eficiente.
Soporte Multimodal: Utiliza modelos que procesan texto e imágenes (Gemma-3n) para interacciones más completas cuando estén disponibles.
Integración de Búsqueda Web: Complementa tu conocimiento local con resultados web de DuckDuckGo para obtener información actualizada en tus consultas RAG y respuestas instantáneas.
Funciona sin conexión: Trabaja sin necesidad de internet; los modelos, la memoria y los índices se guardan en tu dispositivo.
Aceleración por GPU (opcional): Aprovecha la aceleración de hardware donde sea compatible. Para obtener los mejores resultados con modelos más grandes que usan GPU, recomendamos dispositivos con al menos 8 GB de RAM.
Diseño centrado en la privacidad: La memoria, los embeddings y los índices RAG se mantienen locales por defecto; no se suben a la nube a menos que decidas explícitamente compartir o exportar datos.
Manejo de contexto amplio: Soporte para modelos con grandes ventanas de contexto, permitiendo que el asistente analice documentos e historiales extensos.
Ideal para desarrolladores: Se integra con casos de uso de inferencia, indexación y recuperación locales para apps que necesitan IA privada y sin conexión.
¿Por qué elegir LLM Hub? LLM Hub está diseñado para ofrecer IA privada, precisa y flexible en dispositivos móviles. Combina la velocidad de la inferencia local con la precisión factual de los sistemas basados en recuperación y la comodidad de la memoria persistente, lo que lo hace ideal para profesionales del conocimiento, usuarios preocupados por su privacidad y desarrolladores que crean funciones de IA que priorizan lo local.
Modelos compatibles: Gemma-3, Gemma-3n (multimodal), Llama-3.2, Phi-4 Mini. Elige el modelo que mejor se adapte a las capacidades de tu dispositivo y tus necesidades de contexto.
Actualización
16 sept 2025