LLM Hub brengt geavanceerde AI rechtstreeks naar uw Android-apparaat — privé, snel en volledig lokaal. Draai moderne, lokale LLM's (Gemma-3, Gemma-3n multimodaal, Llama-3.2, Phi-4 Mini) met grote contextvensters, persistent globaal geheugen en retrieval-augmented generation (RAG) dat antwoorden baseert op geïndexeerde documenten die op uw apparaat zijn opgeslagen. Maak en bewaar embeddings voor documenten en notities, voer lokaal vector similarity search uit en verrijk antwoorden met DuckDuckGo-webresultaten wanneer u actuele feiten nodig heeft. Alles wat belangrijk is, blijft op uw telefoon, tenzij u het expliciet exporteert: lokaal geheugen, indexen en embeddings beschermen uw privacy en zorgen tegelijkertijd voor hoge relevantie en nauwkeurigheid.
Belangrijkste Functies
Lokale LLM-inferentie: Snelle, privé antwoorden zonder afhankelijkheid van de cloud; kies modellen die passen bij uw apparaat en behoeften.
Retrieval-Augmented Generation (RAG): Combineer de redenering van het model met geïndexeerde documentfragmenten en embeddings om op feiten gebaseerde antwoorden te genereren.
Persistent Globaal Geheugen: Sla feiten, documenten en kennis op in een persistent, lokaal geheugen op het apparaat (Room DB) voor langdurige herinnering over verschillende sessies heen.
Embeddings & Vector Search: Genereer embeddings, indexeer inhoud lokaal en vind de meest relevante documenten met efficiënte similarity search.
Multimodale Ondersteuning: Gebruik modellen die tekst en afbeeldingen kunnen verwerken (Gemma-3n) voor rijkere interacties, indien beschikbaar.
Web Search Integratie: Vul lokale kennis aan met DuckDuckGo-webresultaten om actuele informatie op te halen voor RAG-vragen en directe antwoorden.
Offline-Klaar: Werk zonder netwerkverbinding — modellen, geheugen en indexen blijven op het apparaat.
GPU-Acceleratie (optioneel): Profiteer van hardwareversnelling waar ondersteund — voor de beste resultaten met grotere, door GPU ondersteunde modellen raden we apparaten aan met minimaal 8GB RAM.
Privacy-Eerst Ontwerp: Geheugen, embeddings en RAG-indexen blijven standaard lokaal; er wordt niets naar de cloud geüpload, tenzij u expliciet kiest om gegevens te delen of te exporteren.
Afhandeling van Lange Contexten: Ondersteuning voor modellen met grote contextvensters, zodat de assistent kan redeneren over uitgebreide documenten en gespreksgeschiedenissen.
Ontwikkelaarsvriendelijk: Integreert met lokale inferentie-, indexerings- en retrieval-gebruiksscenario's voor apps die privé, offline AI vereisen.
Waarom kiezen voor LLM Hub? LLM Hub is ontworpen om privé, nauwkeurige en flexibele AI op mobiel te leveren. Het combineert de snelheid van lokale inferentie met de feitelijke basis van retrieval-gebaseerde systemen en het gemak van persistent geheugen — ideaal voor kenniswerkers, privacybewuste gebruikers en ontwikkelaars die lokale AI-functies bouwen.
Ondersteunde Modellen: Gemma-3, Gemma-3n (multimodaal), Llama-3.2, Phi-4 Mini — kies het model dat past bij de mogelijkheden van uw apparaat en uw contextbehoeften.