LLM Hub

500+
Descargas
Clasificación de contenido
Para todos
Captura de pantalla
Captura de pantalla
Captura de pantalla
Captura de pantalla
Captura de pantalla
Captura de pantalla
Captura de pantalla
Captura de pantalla
Captura de pantalla

Información de la aplicación

LLM Hub lleva la IA de nivel profesional directamente a tu dispositivo Android: privada, rápida y completamente local. Ejecuta modelos de lenguaje grandes (LLMs) modernos en tu dispositivo (Gemma-3, Gemma-3n multimodal, Llama-3.2, Phi-4 Mini) con amplias ventanas de contexto, memoria global persistente y generación aumentada por recuperación (RAG) que basa las respuestas en documentos indexados almacenados localmente. Crea y guarda embeddings para documentos y notas, realiza búsquedas de similitud vectorial en el dispositivo y enriquece las respuestas con búsquedas web de DuckDuckGo cuando necesites información actualizada. Todo lo importante permanece en tu teléfono a menos que decidas exportarlo explícitamente: la memoria, los índices y los embeddings, al ser solo locales, protegen tu privacidad a la vez que ofrecen alta relevancia y precisión.

Características principales

Inferencia de LLM en el dispositivo: Respuestas rápidas y privadas sin depender de la nube; elige los modelos que mejor se adapten a tu dispositivo y necesidades.
Generación Aumentada por Recuperación (RAG): Combina el razonamiento del modelo con fragmentos de documentos indexados y embeddings para generar respuestas basadas en hechos.
Memoria Global Persistente: Guarda hechos, documentos y conocimientos en una memoria persistente y local (Room DB) para recordarlos a largo plazo entre sesiones.
Embeddings y búsqueda vectorial: Genera embeddings, indexa contenido localmente y recupera los documentos más relevantes mediante una búsqueda de similitud eficiente.
Soporte multimodal: Utiliza modelos capaces de procesar texto e imágenes (Gemma-3n) para interacciones más completas cuando estén disponibles.
Integración de búsqueda web: Complementa el conocimiento local con resultados web de DuckDuckGo para obtener información actualizada en consultas RAG y respuestas instantáneas.
Funciona sin conexión: Trabaja sin necesidad de conexión a internet; los modelos, la memoria y los índices se mantienen en el dispositivo.
Aceleración por GPU (opcional): Aprovecha la aceleración por hardware donde sea compatible; para obtener los mejores resultados con modelos más grandes que usan GPU, recomendamos dispositivos con al menos 8 GB de RAM.
Diseño centrado en la privacidad: La memoria, los embeddings y los índices RAG permanecen locales por defecto; no se suben a la nube a menos que elijas explícitamente compartir o exportar datos.
Manejo de contexto amplio: Soporte para modelos con grandes ventanas de contexto, permitiendo al asistente razonar sobre documentos e historiales extensos.
Ideal para desarrolladores: Se integra con casos de uso de inferencia, indexación y recuperación locales para aplicaciones que requieren IA privada y sin conexión.
¿Por qué elegir LLM Hub? LLM Hub está diseñado para ofrecer IA privada, precisa y flexible en dispositivos móviles. Combina la velocidad de la inferencia local con la fiabilidad de los sistemas basados en recuperación y la comodidad de la memoria persistente, lo que lo hace ideal para profesionales del conocimiento, usuarios preocupados por la privacidad y desarrolladores que crean funcionalidades de IA con prioridad local.

Modelos compatibles: Gemma-3, Gemma-3n (multimodal), Llama-3.2, Phi-4 Mini; elige el modelo que mejor se adapte a las capacidades de tu dispositivo y a tus necesidades de contexto.
Última actualización
16 sept 2025

Seguridad de los datos

La seguridad empieza por entender cómo recogen y comparten tus datos los desarrolladores. Las prácticas de privacidad y seguridad de los datos pueden variar en función de tu uso de la aplicación, el territorio donde la uses y tu edad. El desarrollador ha proporcionado esta información y puede actualizarla con el tiempo.
No se comparten datos con terceros
Más información sobre cómo los desarrolladores declaran lo que comparten
No se recogen datos
Más información sobre cómo los desarrolladores declaran lo que recogen

Novedades


- Se amplió la ventana de contexto de Phi-4 Mini Max a 4096 y se habilitó backend GPU
- La configuración de carga de modelos ahora recuerda tus últimos ajustes
- Se añadió traducción al italiano

Asistencia de la aplicación

Información del desarrollador
Yuan Qian
timmyboy0623@gmail.com
33 Magdalena Place, Rowville Rowville Clayton VIC 3168 Australia
undefined

Aplicaciones similares