LLM Hub

500+
Descargas
Calificación del contenido
Apto para todo público
Imagen de la captura de pantalla
Imagen de la captura de pantalla
Imagen de la captura de pantalla
Imagen de la captura de pantalla
Imagen de la captura de pantalla
Imagen de la captura de pantalla
Imagen de la captura de pantalla
Imagen de la captura de pantalla
Imagen de la captura de pantalla

Acerca de esta app

LLM Hub lleva la IA de nivel profesional directamente a tu dispositivo Android: privada, rápida y completamente local. Ejecuta modelos LLM modernos en tu dispositivo (Gemma-3, Gemma-3n multimodal, Llama-3.2, Phi-4 Mini) con amplias ventanas de contexto, memoria global persistente y generación aumentada por recuperación (RAG) que basa las respuestas en documentos indexados almacenados localmente. Crea y guarda embeddings para tus documentos y notas, realiza búsquedas de similitud vectorial en tu dispositivo y enriquece las respuestas con búsquedas web de DuckDuckGo cuando necesites información actualizada. Todo lo importante se mantiene en tu teléfono a menos que decidas exportarlo: la memoria, los índices y los embeddings se quedan en tu dispositivo, protegiendo tu privacidad y ofreciendo alta relevancia y precisión.

Características Principales

Inferencia de LLM en el dispositivo: Respuestas rápidas y privadas sin depender de la nube; elige los modelos que mejor se adapten a tu dispositivo y necesidades.
Generación Aumentada por Recuperación (RAG): Combina el razonamiento del modelo con fragmentos de documentos indexados y embeddings para generar respuestas basadas en hechos concretos.
Memoria Global Persistente: Guarda información, documentos y conocimientos en una memoria persistente y local (Room DB) para recordarlos a largo plazo en diferentes sesiones.
Embeddings y Búsqueda Vectorial: Genera embeddings, indexa contenido localmente y encuentra los documentos más relevantes con una búsqueda de similitud eficiente.
Soporte Multimodal: Utiliza modelos que procesan texto e imágenes (Gemma-3n) para interacciones más completas cuando estén disponibles.
Integración de Búsqueda Web: Complementa tu conocimiento local con resultados web de DuckDuckGo para obtener información actualizada en tus consultas RAG y respuestas instantáneas.
Funciona sin conexión: Trabaja sin necesidad de internet; los modelos, la memoria y los índices se guardan en tu dispositivo.
Aceleración por GPU (opcional): Aprovecha la aceleración de hardware donde sea compatible. Para obtener los mejores resultados con modelos más grandes que usan GPU, recomendamos dispositivos con al menos 8 GB de RAM.
Diseño centrado en la privacidad: La memoria, los embeddings y los índices RAG se mantienen locales por defecto; no se suben a la nube a menos que decidas explícitamente compartir o exportar datos.
Manejo de contexto amplio: Soporte para modelos con grandes ventanas de contexto, permitiendo que el asistente analice documentos e historiales extensos.
Ideal para desarrolladores: Se integra con casos de uso de inferencia, indexación y recuperación locales para apps que necesitan IA privada y sin conexión.
¿Por qué elegir LLM Hub? LLM Hub está diseñado para ofrecer IA privada, precisa y flexible en dispositivos móviles. Combina la velocidad de la inferencia local con la precisión factual de los sistemas basados en recuperación y la comodidad de la memoria persistente, lo que lo hace ideal para profesionales del conocimiento, usuarios preocupados por su privacidad y desarrolladores que crean funciones de IA que priorizan lo local.

Modelos compatibles: Gemma-3, Gemma-3n (multimodal), Llama-3.2, Phi-4 Mini. Elige el modelo que mejor se adapte a las capacidades de tu dispositivo y tus necesidades de contexto.
Actualización
16 sept 2025

Seguridad de los datos

El primer paso de la seguridad es comprender cómo los desarrolladores recopilan y comparten tus datos. Las prácticas de privacidad y seguridad de datos pueden variar en función del uso de la app, la región y la edad. El desarrollador proporcionó esta información y podría actualizarla con el tiempo.
No se comparten datos con terceros
Más información sobre cómo los desarrolladores declaran el uso compartido
No se recopilan datos
Más información sobre cómo los desarrolladores declaran la recopilación

Novedades


- Se amplió la ventana de contexto de Phi-4 Mini Max a 4096 y se habilitó backend GPU
- La configuración de carga de modelos ahora recuerda tu última selección
- Se agregó traducción al italiano