LLM Hub

500+
Nedladdningar
Innehållsklassificering
Ingen åldersgräns
Skärmdumpsbild
Skärmdumpsbild
Skärmdumpsbild
Skärmdumpsbild
Skärmdumpsbild
Skärmdumpsbild
Skärmdumpsbild
Skärmdumpsbild
Skärmdumpsbild

Om appen

LLM Hub ger dig AI i produktionsklass direkt på din Android-enhet – privat, snabbt och helt lokalt. Kör moderna, lokala LLM:er (Gemma-3, Gemma-3n multimodal, Llama-3.2, Phi-4 Mini) med stora kontextfönster, permanent globalt minne och Retrieval-Augmented Generation (RAG) som baserar svar på indexerade dokument lagrade på enheten. Skapa och lagra inbäddningar för dokument och anteckningar, kör lokal vektorsökning och komplettera svar med webbsökning via DuckDuckGo när du behöver aktuell information. Allt viktigt stannar på din telefon om du inte uttryckligen exporterar det: lokalt minne, index och inbäddningar skyddar din integritet samtidigt som de ger hög relevans och precision.

Nyckelfunktioner

Lokal LLM-inferens: Snabba, privata svar utan beroende av molnet; välj modeller som passar din enhet och dina behov.
Retrieval-Augmented Generation (RAG): Kombinera modellens resonemang med indexerade dokumentdelar och inbäddningar för att ge faktabaserade svar.
Permanent globalt minne: Spara fakta, dokument och kunskap i ett permanent, lokalt minne på enheten (Room DB) för långsiktig åtkomst över sessioner.
Inbäddningar och vektorsökning: Generera inbäddningar, indexera innehåll lokalt och hitta de mest relevanta dokumenten med effektiv likhetssökning.
Multimodalt stöd: Använd modeller som hanterar både text och bild (Gemma-3n) för rikare interaktioner när det är möjligt.
Webbsökintegration: Komplettera lokal kunskap med webbresultat från DuckDuckGo för att hämta uppdaterad information för RAG-frågor och snabba svar.
Offline-redo: Fungerar utan nätverksåtkomst – modeller, minne och index finns kvar på enheten.
GPU-acceleration (valfritt): Dra nytta av hårdvaruacceleration där det stöds – för bästa resultat med större GPU-stödda modeller rekommenderar vi enheter med minst 8 GB RAM.
Integritet i fokus: Minne, inbäddningar och RAG-index är lokala som standard; ingen uppladdning till molnet om du inte uttryckligen väljer att dela eller exportera data.
Hantering av lång kontext: Stöd för modeller med stora kontextfönster så att assistenten kan resonera kring omfattande dokument och historik.
Utvecklarvänlig: Integreras med lokala användningsfall för inferens, indexering och hämtning för appar som kräver privat, offline AI.
Varför välja LLM Hub? LLM Hub är utvecklat för att leverera privat, korrekt och flexibel AI på mobilen. Det kombinerar snabbheten hos lokal inferens med den faktabaserade grunden hos hämtningsbaserade system och bekvämligheten med permanent minne – perfekt för kunskapsarbetare, integritetsmedvetna användare och utvecklare som bygger AI-funktioner som prioriterar lokal drift.

Modeller som stöds: Gemma-3, Gemma-3n (multimodal), Llama-3.2, Phi-4 Mini – välj den modell som passar din enhets kapacitet och dina kontextbehov.
Uppdaterades den
16 sep. 2025

Datasäkerhet

Säkerhet börjar med förståelsen av hur utvecklare samlar in och delar din data. Praxis för dataintegritet och säkerhet varierar beroende på användning, region och ålder. Utvecklaren har tillhandahållit denna information och kan uppdatera den med tiden.
Ingen data delas med tredje part
Läs mer om hur utvecklare deklarerar delning
Ingen data samlades in
Läs mer om hur utvecklare deklarerar insamling

Nyheter


- Phi-4 Mini Max kontextfönster uppgraderat till 4096 och GPU-backend aktiverad
- Modellkonfigurationen minns nu dina senaste inställningar
- Italiensk översättning tillagd