LLM Hub

500+
Allalaadimised
Sisu reiting
Kõik
Ekraanipilt
Ekraanipilt
Ekraanipilt
Ekraanipilt
Ekraanipilt
Ekraanipilt
Ekraanipilt
Ekraanipilt
Ekraanipilt

Rakenduse teave

LLM Hub toob tootmistaseme AI otse teie Android-seadmesse – privaatne, kiire ja täielikult kohalik. Käitage kaasaegseid seadmesiseseid LLM-e (Gemma-3, Gemma-3n multimodaalne, Llama-3.2, Phi-4 Mini), millel on suured kontekstiaknad, püsiv globaalne mälu ja taasesitusega täiendatud genereerimine (RAG), mis põhjendab vastuseid seadmesse salvestatud indekseeritud dokumentides. Looge ja salvestage dokumentide ja märkmete manuseid, käivitage vektori sarnasuse otsing kohapeal ja rikastage vastuseid DuckDuckGo-põhise veebiotsinguga, kui vajate reaalajas fakte. Kõik oluline jääb teie telefoni alles, välja arvatud juhul, kui te seda otseselt ekspordite: ainult kohalik mälu, indeksid ja manustused kaitsevad teie privaatsust, pakkudes samal ajal suurt asjakohasust ja täpsust.

Põhifunktsioonid

Seadmesisene LLM-i järeldus: kiired privaatsed vastused ilma pilvesõltuvuseta; valige mudelid, mis vastavad teie seadmele ja vajadustele.
Retrieval-Augmented Generation (RAG): kombineerige mudeli arutluskäik indekseeritud dokumendijuppide ja manustamistega, et saada faktidel põhinevaid vastuseid.
Püsiv globaalne mälu: salvestage faktid, dokumendid ja teadmised püsivasse seadme lokaalsesse mällu (Ruumi DB), et seansi jooksul neid pikaajaliselt meenutada.
Manustused ja vektorotsing: looge manuseid, indekseerige sisu kohapeal ja hankige tõhusa sarnasusotsinguga kõige asjakohasemad dokumendid.
Multimodaalne tugi: võimaluse korral kasutage rikkalikumaks suhtluseks teksti ja pildiga varustatud mudeleid (Gemma-3n).
Veebiotsingu integreerimine: täiendage kohalikke teadmisi DuckDuckGo toega veebitulemustega, et hankida RAG-päringute ja koheste vastuste jaoks ajakohane teave.
Võrguühenduseta valmis: töötage ilma võrgule juurdepääsuta – mudelid, mälu ja indeksid püsivad seadmes.
GPU kiirendus (valikuline): saate kasu riistvaralisest kiirendusest, kui seda toetatakse – parimate tulemuste saavutamiseks suuremate GPU-toega mudelitega soovitame seadmeid, millel on vähemalt 8 GB muutmälu.
Privaatsus-eelkõige disain: mälu, manustused ja RAG-indeksid jäävad vaikimisi lokaalseks; pilve üleslaadimine ei toimu, välja arvatud juhul, kui otsustate selgesõnaliselt andmeid jagada või eksportida.
Pika konteksti käsitlemine: suurte kontekstiakendega mudelite tugi, et assistent saaks arutleda ulatuslike dokumentide ja ajaloo üle.
Arendajasõbralik: integreerub privaatset võrguühenduseta tehisintellekti vajavate rakenduste kohalike järelduste, indekseerimise ja otsingu kasutusjuhtudega.
Miks valida LLM Hub? LLM Hub on loodud selleks, et pakkuda mobiilis privaatset, täpset ja paindlikku tehisintellekti. See ühendab kohaliku järelduse kiiruse otsingupõhiste süsteemide faktilise maandusega ja püsiva mälu mugavusega – ideaalne teadmistöötajatele, privaatsustundlikele kasutajatele ja arendajatele, kes loovad esmajärjekorras kohalikke tehisintellekti funktsioone.

Toetatud mudelid: Gemma-3, Gemma-3n (multimodaalne), Llama-3.2, Phi-4 Mini – valige mudel, mis sobib teie seadme võimalustega ja konteksti vajadustega.
Värskendatud:
16. sept 2025

Andmete ohutus

Ohutus algab selle mõistmisest, kuidas arendajad teie andmeid koguvad ja jagavad. Andmete privaatsuse ja turvalisuse tavad võivad olenevalt kasutusviisist ning teie piirkonnast ja vanusest erineda. Selle teabe esitas arendaja ja seda võidakse aja jooksul värskendada.
Kolmandate osapooltega ei jagata andmeid
Lisateave selle kohta, kuidas arendajad andmete jagamisest teada annavad
Andmeid ei koguta
Lisateave selle kohta, kuidas arendajad andmete kogumisest teada annavad

Mis on uut?

- Upgraded Phi-4 Mini Max context window to 4096 and enabled GPU backend
- Model loading configuration now remembers your last settings
- Added translation support for Italian

Rakenduse tugi

Teave arendaja kohta
Yuan Qian
timmyboy0623@gmail.com
33 Magdalena Place, Rowville Rowville Clayton VIC 3168 Australia
undefined

Sarnased rakendused