O LLM Hub leva IA de nível profissional direto para o seu Android — de forma privada, rápida e totalmente local. Execute LLMs modernos no seu aparelho (Gemma-3, Gemma-3n multimodal, Llama-3.2, Phi-4 Mini) com janelas de contexto amplas, memória global persistente e Geração Aumentada por Recuperação (RAG) que baseia as respostas em documentos indexados armazenados no próprio dispositivo. Crie e guarde embeddings para documentos e notas, faça buscas de similaridade vetorial localmente e enriqueça as respostas com a busca web do DuckDuckGo quando precisar de informações em tempo real. Tudo que é importante fica no seu telefone, a menos que você decida exportar: memória, índices e embeddings locais protegem sua privacidade, garantindo alta relevância e precisão.
Principais Recursos
Inferência de LLM no dispositivo: Respostas rápidas e privadas sem depender da nuvem; escolha modelos que se encaixem no seu aparelho e nas suas necessidades.
Geração Aumentada por Recuperação (RAG): Combine o raciocínio do modelo com trechos de documentos indexados e embeddings para gerar respostas baseadas em fatos.
Memória Global Persistente: Salve fatos, documentos e conhecimento em uma memória persistente e local (Room DB) para acesso a longo prazo entre sessões.
Embeddings e Busca Vetorial: Gere embeddings, indexe conteúdo localmente e encontre os documentos mais relevantes com busca de similaridade eficiente.
Suporte Multimodal: Use modelos que processam texto e imagem (Gemma-3n) para interações mais ricas, quando disponíveis.
Integração com Busca Web: Complemente o conhecimento local com resultados da web via DuckDuckGo para obter informações atualizadas em consultas RAG e respostas instantâneas.
Pronto para Offline: Funciona sem internet — modelos, memória e índices ficam salvos no dispositivo.
Aceleração por GPU (opcional): Aproveite a aceleração de hardware onde houver suporte — para melhores resultados com modelos maiores que usam GPU, recomendamos aparelhos com pelo menos 8GB de RAM.
Design Focado em Privacidade: Memória, embeddings e índices RAG são locais por padrão; nada é enviado para a nuvem, a menos que você escolha explicitamente compartilhar ou exportar dados.
Suporte a Contexto Longo: Compatível com modelos que possuem janelas de contexto amplas, permitindo que o assistente analise documentos e históricos extensos.
Ideal para Desenvolvedores: Integra-se a casos de uso de inferência, indexação e recuperação locais para apps que precisam de IA privada e offline.
Por que escolher o LLM Hub? O LLM Hub foi criado para oferecer IA privada, precisa e flexível no celular. Ele une a velocidade da inferência local com a base factual de sistemas de recuperação e a praticidade da memória persistente — perfeito para profissionais do conhecimento, usuários preocupados com privacidade e desenvolvedores que criam funcionalidades de IA "local-first".
Modelos Suportados: Gemma-3, Gemma-3n (multimodal), Llama-3.2, Phi-4 Mini — escolha o modelo que melhor se adapta às capacidades do seu dispositivo e às suas necessidades de contexto.
Atualizado em
16 de set. de 2025