LLM Hub toob tootmistaseme AI otse teie Android-seadmesse – privaatne, kiire ja täielikult kohalik. Käitage kaasaegseid seadmesiseseid LLM-e (Gemma-3, Gemma-3n multimodaalne, Llama-3.2, Phi-4 Mini), millel on suured kontekstiaknad, püsiv globaalne mälu ja taasesitusega täiendatud genereerimine (RAG), mis põhjendab vastuseid seadmesse salvestatud indekseeritud dokumentides. Looge ja salvestage dokumentide ja märkmete manuseid, käivitage vektori sarnasuse otsing kohapeal ja rikastage vastuseid DuckDuckGo-põhise veebiotsinguga, kui vajate reaalajas fakte. Kõik oluline jääb teie telefoni alles, välja arvatud juhul, kui te seda otseselt ekspordite: ainult kohalik mälu, indeksid ja manustused kaitsevad teie privaatsust, pakkudes samal ajal suurt asjakohasust ja täpsust.
Põhifunktsioonid
Seadmesisene LLM-i järeldus: kiired privaatsed vastused ilma pilvesõltuvuseta; valige mudelid, mis vastavad teie seadmele ja vajadustele.
Retrieval-Augmented Generation (RAG): kombineerige mudeli arutluskäik indekseeritud dokumendijuppide ja manustamistega, et saada faktidel põhinevaid vastuseid.
Püsiv globaalne mälu: salvestage faktid, dokumendid ja teadmised püsivasse seadme lokaalsesse mällu (Ruumi DB), et seansi jooksul neid pikaajaliselt meenutada.
Manustused ja vektorotsing: looge manuseid, indekseerige sisu kohapeal ja hankige tõhusa sarnasusotsinguga kõige asjakohasemad dokumendid.
Multimodaalne tugi: võimaluse korral kasutage rikkalikumaks suhtluseks teksti ja pildiga varustatud mudeleid (Gemma-3n).
Veebiotsingu integreerimine: täiendage kohalikke teadmisi DuckDuckGo toega veebitulemustega, et hankida RAG-päringute ja koheste vastuste jaoks ajakohane teave.
Võrguühenduseta valmis: töötage ilma võrgule juurdepääsuta – mudelid, mälu ja indeksid püsivad seadmes.
GPU kiirendus (valikuline): saate kasu riistvaralisest kiirendusest, kui seda toetatakse – parimate tulemuste saavutamiseks suuremate GPU-toega mudelitega soovitame seadmeid, millel on vähemalt 8 GB muutmälu.
Privaatsus-eelkõige disain: mälu, manustused ja RAG-indeksid jäävad vaikimisi lokaalseks; pilve üleslaadimine ei toimu, välja arvatud juhul, kui otsustate selgesõnaliselt andmeid jagada või eksportida.
Pika konteksti käsitlemine: suurte kontekstiakendega mudelite tugi, et assistent saaks arutleda ulatuslike dokumentide ja ajaloo üle.
Arendajasõbralik: integreerub privaatset võrguühenduseta tehisintellekti vajavate rakenduste kohalike järelduste, indekseerimise ja otsingu kasutusjuhtudega.
Miks valida LLM Hub? LLM Hub on loodud selleks, et pakkuda mobiilis privaatset, täpset ja paindlikku tehisintellekti. See ühendab kohaliku järelduse kiiruse otsingupõhiste süsteemide faktilise maandusega ja püsiva mälu mugavusega – ideaalne teadmistöötajatele, privaatsustundlikele kasutajatele ja arendajatele, kes loovad esmajärjekorras kohalikke tehisintellekti funktsioone.
Toetatud mudelid: Gemma-3, Gemma-3n (multimodaalne), Llama-3.2, Phi-4 Mini – valige mudel, mis sobib teie seadme võimalustega ja konteksti vajadustega.
Värskendatud:
16. sept 2025