LLM Hub trae AI de produción directamente ao teu dispositivo Android: privado, rápido e totalmente local. Execute LLM modernos no dispositivo (Gemma-3, Gemma-3n multimodal, Llama-3.2, Phi-4 Mini) con grandes ventás de contexto, memoria global persistente e xeración aumentada por recuperación (RAG) que fundamenta as respostas en documentos indexados almacenados no dispositivo. Crea e almacena incrustacións para documentos e notas, realiza a busca de semellanzas de vectores localmente e enriquece as respostas coa busca web impulsada por DuckDuckGo cando necesites datos en directo. Todo o importante permanece no teu teléfono a menos que o exportes explícitamente: a memoria, os índices e as incrustacións só locais protexen a túa privacidade ao tempo que ofrecen unha gran relevancia e precisión.
Características clave
Inferencia LLM no dispositivo: respostas rápidas e privadas sen dependencia da nube; escolle modelos que se axusten ao teu dispositivo e ás túas necesidades.
Retrieval-Augmented Generation (RAG): combina o razoamento do modelo con fragmentos de documentos indexados e incrustacións para producir respostas fundamentadas en feitos.
Memoria global persistente: garda feitos, documentos e coñecementos nunha memoria local persistente do dispositivo (DB de sala) para a memoria a longo prazo en todas as sesións.
Incrustacións e busca vectorial: xera incrustacións, indexa o contido localmente e recupera os documentos máis relevantes cunha busca eficiente de semellanzas.
Soporte multimodal: use modelos con capacidade de texto e imaxe (Gemma-3n) para interaccións máis ricas cando estea dispoñible.
Integración da busca web: complementa o coñecemento local con resultados web impulsados por DuckDuckGo para obter información actualizada para consultas RAG e respostas instantáneas.
Preparado para fóra de liña: traballa sen acceso á rede: os modelos, a memoria e os índices persisten no dispositivo.
Aceleración da GPU (opcional): Benefíciese da aceleración de hardware cando sexa compatible. Para obter mellores resultados con modelos máis grandes con respaldo de GPU, recomendamos dispositivos con polo menos 8 GB de RAM.
Deseño de privacidade en primeiro lugar: a memoria, as incrustacións e os índices RAG permanecen locais por defecto; non hai cargas na nube a menos que elixas explícitamente compartir ou exportar datos.
Manexo de contexto longo: soporte para modelos con ventás de contexto grandes para que o asistente poida razoar sobre documentos e historias extensas.
Adecuado para programadores: intégrase con casos de uso de inferencia, indexación e recuperación locais para aplicacións que requiren IA privada sen conexión.
Por que escoller LLM Hub? LLM Hub está construído para ofrecer IA privada, precisa e flexible no móbil. Combina a velocidade da inferencia local coa base factual dos sistemas baseados na recuperación e a comodidade da memoria persistente, ideal para traballadores do coñecemento, usuarios conscientes da privacidade e desenvolvedores que crean funcións de IA de primeira orde local.
Modelos compatibles: Gemma-3, Gemma-3n (multimodal), Llama-3.2, Phi-4 Mini: escolle o modelo que se adapte ás capacidades do teu dispositivo e ás necesidades do contexto.
Última actualización
16 de set. de 2025