LLM Hub bring produksiegraad AI reguit na jou Android-toestel - privaat, vinnig en ten volle plaaslik. Begin moderne LLM's op die toestel (Gemma-3, Gemma-3n multimodaal, Llama-3.2, Phi-4 Mini) met groot konteksvensters, aanhoudende globale geheue en herwinning-vergrote generasie (JOOL) wat antwoorde in geïndekseerde dokumente wat op die toestel gestoor is, grond. Skep en stoor inbeddings vir dokumente en notas, voer vektorooreenkomssoektogte plaaslik uit, en verryk antwoorde met DuckDuckGo-aangedrewe websoektog wanneer jy lewendige feite benodig. Alles wat belangrik is, bly op jou foon, tensy jy dit uitdruklik uitvoer: slegs plaaslike geheue, indekse en inbeddings beskerm jou privaatheid terwyl dit hoë relevansie en akkuraatheid lewer.
Sleutel kenmerke
LLM-afleiding op die toestel: Vinnige, private antwoorde sonder wolkafhanklikheid; kies modelle wat by jou toestel en behoeftes pas.
Herwinning-Augmented Generation (JOOL): Kombineer modelredenering met geïndekseerde dokumentstukke en inbeddings om feitegegronde antwoorde te produseer.
Aanhoudende globale geheue: Stoor feite, dokumente en kennis in 'n volgehoue toestel-plaaslike geheue (Kamer DB) vir langtermynherroeping oor sessies heen.
Inbeddings en vektorsoektogte: Genereer inbeddings, indekseer inhoud plaaslik, en haal die mees relevante dokumente met doeltreffende ooreenkomssoektog.
Multimodale ondersteuning: Gebruik teks + beeld-bekwame modelle (Gemma-3n) vir ryker interaksies wanneer beskikbaar.
Websoekintegrasie: Vul plaaslike kennis aan met DuckDuckGo-aangedrewe webresultate om bygewerkte inligting vir JOOL-navrae en kitsantwoorde te gaan haal.
Vanlyn-gereed: Werk sonder netwerktoegang - modelle, geheue en indekse bly op die toestel.
GPU-versnelling (opsioneel): Vind voordeel uit hardewareversnelling waar dit ondersteun word - vir die beste resultate met groter GPU-gesteunde modelle beveel ons toestelle met ten minste 8 GB RAM aan.
Privaatheid-eerste ontwerp: geheue, inbeddings en JOOL-indekse bly by verstek plaaslik; geen wolkoplaai nie, tensy jy uitdruklik kies om data te deel of uit te voer.
Langkontekshantering: Ondersteuning vir modelle met groot konteksvensters sodat die assistent oor uitgebreide dokumente en geskiedenisse kan redeneer.
Ontwikkelaarvriendelik: Integreer met plaaslike afleidings-, indekserings- en herwinninggebruiksgevalle vir toepassings wat privaat, vanlyn KI vereis.
Waarom LLM Hub kies? LLM Hub is gebou om privaat, akkurate en buigsame KI op selfoon te lewer. Dit smelt die spoed van plaaslike afleiding saam met die feitelike begronding van herwinning-gebaseerde stelsels en die gerief van aanhoudende geheue – ideaal vir kenniswerkers, privaatheidsbewuste gebruikers en ontwikkelaars wat plaaslike eerste KI-kenmerke bou.
Ondersteunde modelle: Gemma-3, Gemma-3n (multimodaal), Llama-3.2, Phi-4 Mini — kies die model wat by jou toestel se vermoëns en konteksbehoeftes pas.
Opgedateer op
16 Sep. 2025