LLM Hub

500+
downloads
Classificação do conteúdo
Todos
Imagem da captura de tela
Imagem da captura de tela
Imagem da captura de tela
Imagem da captura de tela
Imagem da captura de tela
Imagem da captura de tela
Imagem da captura de tela
Imagem da captura de tela
Imagem da captura de tela

Sobre este app

O LLM Hub leva IA de nível profissional direto para o seu Android — de forma privada, rápida e totalmente local. Execute LLMs modernos no seu aparelho (Gemma-3, Gemma-3n multimodal, Llama-3.2, Phi-4 Mini) com janelas de contexto amplas, memória global persistente e Geração Aumentada por Recuperação (RAG) que baseia as respostas em documentos indexados armazenados no próprio dispositivo. Crie e guarde embeddings para documentos e notas, faça buscas de similaridade vetorial localmente e enriqueça as respostas com a busca web do DuckDuckGo quando precisar de informações em tempo real. Tudo que é importante fica no seu telefone, a menos que você decida exportar: memória, índices e embeddings locais protegem sua privacidade, garantindo alta relevância e precisão.

Principais Recursos

Inferência de LLM no dispositivo: Respostas rápidas e privadas sem depender da nuvem; escolha modelos que se encaixem no seu aparelho e nas suas necessidades.
Geração Aumentada por Recuperação (RAG): Combine o raciocínio do modelo com trechos de documentos indexados e embeddings para gerar respostas baseadas em fatos.
Memória Global Persistente: Salve fatos, documentos e conhecimento em uma memória persistente e local (Room DB) para acesso a longo prazo entre sessões.
Embeddings e Busca Vetorial: Gere embeddings, indexe conteúdo localmente e encontre os documentos mais relevantes com busca de similaridade eficiente.
Suporte Multimodal: Use modelos que processam texto e imagem (Gemma-3n) para interações mais ricas, quando disponíveis.
Integração com Busca Web: Complemente o conhecimento local com resultados da web via DuckDuckGo para obter informações atualizadas em consultas RAG e respostas instantâneas.
Pronto para Offline: Funciona sem internet — modelos, memória e índices ficam salvos no dispositivo.
Aceleração por GPU (opcional): Aproveite a aceleração de hardware onde houver suporte — para melhores resultados com modelos maiores que usam GPU, recomendamos aparelhos com pelo menos 8GB de RAM.
Design Focado em Privacidade: Memória, embeddings e índices RAG são locais por padrão; nada é enviado para a nuvem, a menos que você escolha explicitamente compartilhar ou exportar dados.
Suporte a Contexto Longo: Compatível com modelos que possuem janelas de contexto amplas, permitindo que o assistente analise documentos e históricos extensos.
Ideal para Desenvolvedores: Integra-se a casos de uso de inferência, indexação e recuperação locais para apps que precisam de IA privada e offline.
Por que escolher o LLM Hub? O LLM Hub foi criado para oferecer IA privada, precisa e flexível no celular. Ele une a velocidade da inferência local com a base factual de sistemas de recuperação e a praticidade da memória persistente — perfeito para profissionais do conhecimento, usuários preocupados com privacidade e desenvolvedores que criam funcionalidades de IA "local-first".

Modelos Suportados: Gemma-3, Gemma-3n (multimodal), Llama-3.2, Phi-4 Mini — escolha o modelo que melhor se adapta às capacidades do seu dispositivo e às suas necessidades de contexto.
Atualizado em
16 de set. de 2025

Segurança dos dados

Sua segurança começa quando você entende como os desenvolvedores coletam e compartilham seus dados. As práticas de segurança e privacidade de dados podem variar de acordo com o uso, a região e a idade. O desenvolvedor forneceu as informações a seguir, que podem ser atualizadas ao longo do tempo.
Os dados não são compartilhados com terceiros
Saiba mais sobre como os desenvolvedores declaram o compartilhamento
Nenhum dado foi coletado
Saiba mais sobre como os desenvolvedores declaram a coleta

O que há de novo


- Janela de contexto do Phi-4 Mini Max aumentada para 4096 e backend GPU habilitado
- Configuração de carregamento de modelos agora lembra suas últimas escolhas
- Tradução para italiano adicionada