LLM Hub

500+
Descargas
Clasificación de contido
Todos
Imaxe de captura de pantalla
Imaxe de captura de pantalla
Imaxe de captura de pantalla
Imaxe de captura de pantalla
Imaxe de captura de pantalla
Imaxe de captura de pantalla
Imaxe de captura de pantalla
Imaxe de captura de pantalla
Imaxe de captura de pantalla

Acerca desta aplicación

LLM Hub trae AI de produción directamente ao teu dispositivo Android: privado, rápido e totalmente local. Execute LLM modernos no dispositivo (Gemma-3, Gemma-3n multimodal, Llama-3.2, Phi-4 Mini) con grandes ventás de contexto, memoria global persistente e xeración aumentada por recuperación (RAG) que fundamenta as respostas en documentos indexados almacenados no dispositivo. Crea e almacena incrustacións para documentos e notas, realiza a busca de semellanzas de vectores localmente e enriquece as respostas coa busca web impulsada por DuckDuckGo cando necesites datos en directo. Todo o importante permanece no teu teléfono a menos que o exportes explícitamente: a memoria, os índices e as incrustacións só locais protexen a túa privacidade ao tempo que ofrecen unha gran relevancia e precisión.

Características clave

Inferencia LLM no dispositivo: respostas rápidas e privadas sen dependencia da nube; escolle modelos que se axusten ao teu dispositivo e ás túas necesidades.
Retrieval-Augmented Generation (RAG): combina o razoamento do modelo con fragmentos de documentos indexados e incrustacións para producir respostas fundamentadas en feitos.
Memoria global persistente: garda feitos, documentos e coñecementos nunha memoria local persistente do dispositivo (DB de sala) para a memoria a longo prazo en todas as sesións.
Incrustacións e busca vectorial: xera incrustacións, indexa o contido localmente e recupera os documentos máis relevantes cunha busca eficiente de semellanzas.
Soporte multimodal: use modelos con capacidade de texto e imaxe (Gemma-3n) para interaccións máis ricas cando estea dispoñible.
Integración da busca web: complementa o coñecemento local con resultados web impulsados ​​por DuckDuckGo para obter información actualizada para consultas RAG e respostas instantáneas.
Preparado para fóra de liña: traballa sen acceso á rede: os modelos, a memoria e os índices persisten no dispositivo.
Aceleración da GPU (opcional): Benefíciese da aceleración de hardware cando sexa compatible. Para obter mellores resultados con modelos máis grandes con respaldo de GPU, recomendamos dispositivos con polo menos 8 GB de RAM.
Deseño de privacidade en primeiro lugar: a memoria, as incrustacións e os índices RAG permanecen locais por defecto; non hai cargas na nube a menos que elixas explícitamente compartir ou exportar datos.
Manexo de contexto longo: soporte para modelos con ventás de contexto grandes para que o asistente poida razoar sobre documentos e historias extensas.
Adecuado para programadores: intégrase con casos de uso de inferencia, indexación e recuperación locais para aplicacións que requiren IA privada sen conexión.
Por que escoller LLM Hub? LLM Hub está construído para ofrecer IA privada, precisa e flexible no móbil. Combina a velocidade da inferencia local coa base factual dos sistemas baseados na recuperación e a comodidade da memoria persistente, ideal para traballadores do coñecemento, usuarios conscientes da privacidade e desenvolvedores que crean funcións de IA de primeira orde local.

Modelos compatibles: Gemma-3, Gemma-3n (multimodal), Llama-3.2, Phi-4 Mini: escolle o modelo que se adapte ás capacidades do teu dispositivo e ás necesidades do contexto.
Última actualización
16 de set. de 2025

Seguranza dos datos

A seguranza pasa por entender como recompilan e comparten os teus datos os programadores. As prácticas relacionadas coa seguranza e a privacidade dos datos utilizadas poden variar en función do uso, a rexión e a idade. O programador facilitou esta información e pode modificala co paso do tempo.
Non se comparten datos con terceiros
Máis información sobre como fan os programadores declaracións acerca dos datos que comparten
Non se recompila ningún dato
Máis información sobre como fan os programadores declaracións acerca da recompilación de datos

Novidades

- Upgraded Phi-4 Mini Max context window to 4096 and enabled GPU backend
- Model loading configuration now remembers your last settings
- Added translation support for Italian

Servizo de asistencia da aplicación

Acerca do programador
Yuan Qian
timmyboy0623@gmail.com
33 Magdalena Place, Rowville Rowville Clayton VIC 3168 Australia
undefined

Apps similares