Az LLM Hub professzionális szintű mesterséges intelligenciát (AI) ho el közvetlenül az Android készülékedre – privátan, gyorsan és teljes mértékben helyben. Futtass modern, eszközön futó nagyméretű nyelvi modelleket (LLM-eket), mint a Gemma-3, a multimodális Gemma-3n, a Llama-3.2 vagy a Phi-4 Mini. Ezek a modellek nagy kontextusablakokkal, tartós globális memóriával és lekérdezés-kiegészített generálással (RAG) működnek, ami azt jelenti, hogy a válaszokat az eszközön tárolt, indexelt dokumentumokra alapozzák. Hozz létre és tárolj beágyazásokat dokumentumokhoz és jegyzetekhez, végezz helyben vektoros hasonlósági keresést, és egészítsd ki a válaszokat DuckDuckGo-alapú webes kereséssel, ha friss információkra van szükséged. Minden fontos adat a telefonodon marad, hacsak kifejezetten nem exportálod: a kizárólag helyi memória, az indexek és a beágyazások védik a magánéletedet, miközben magas relevanciát és pontosságot biztosítanak.
Főbb Jellemzők
Eszközön futó LLM következtetés: Gyors, privát válaszok felhőfüggőség nélkül; válaszd ki az eszközödnek és igényeidnek megfelelő modelleket.
Lekérdezés-Kiegészített Generálás (RAG): Kombináld a modell logikáját indexelt dokumentumrészletekkel és beágyazásokkal a tényeken alapuló válaszok előállításához.
Tartós Globális Memória: Mentsd el a tényeket, dokumentumokat és tudást egy tartós, eszközön tárolt memóriába (Room DB) a hosszú távú visszaidézéshez a különböző munkamenetek során.
Beágyazások és Vektoros Keresés: Generálj beágyazásokat, indexelj tartalmat helyben, és találd meg a legrelevánsabb dokumentumokat hatékony hasonlósági kereséssel.
Multimodális Támogatás: Használj szöveget és képet is kezelő modelleket (Gemma-3n) a gazdagabb interakciókhoz, ha elérhető.
Webes Keresés Integráció: Egészítsd ki a helyi tudást DuckDuckGo-alapú webes találatokkal, hogy naprakész információkat szerezz RAG lekérdezésekhez és azonnali válaszokhoz.
Offline Kész: Dolgozz hálózati hozzáférés nélkül – a modellek, a memória és az indexek az eszközön maradnak.
GPU Gyorsítás (opcionális): Használd ki a hardveres gyorsítást, ahol támogatott – a legjobb eredményekért nagyobb, GPU-t igénylő modellekkel legalább 8 GB RAM-mal rendelkező eszközöket ajánlunk.
Adatvédelmi Fókuszú Tervezés: A memória, a beágyazások és a RAG indexek alapértelmezés szerint helyben maradnak; nincs felhőbe feltöltés, hacsak kifejezetten nem döntesz az adatok megosztása vagy exportálása mellett.
Hosszú Kontextus Kezelés: Támogatás a nagy kontextusablakokkal rendelkező modellekhez, így az asszisztens kiterjedt dokumentumokon és előzményeken tud gondolkodni.
Fejlesztőbarát: Integrálható a helyi következtetési, indexelési és lekérdezési használati esetekkel olyan alkalmazásokhoz, amelyek privát, offline AI-t igényelnek.
Miért válaszd az LLM Hub-ot? Az LLM Hub azért készült, hogy privát, pontos és rugalmas AI-t nyújtson mobilon. Egyesíti a helyi következtetés sebességét a lekérdezés-alapú rendszerek ténybeli megalapozottságával és a tartós memória kényelmével – ideális tudásmunkásoknak, adatvédelmi szempontból tudatos felhasználóknak és olyan fejlesztőknek, akik helyi-első AI funkciókat építenek.
Támogatott Modellek: Gemma-3, Gemma-3n (multimodális), Llama-3.2, Phi-4 Mini – válaszd ki azt a modellt, amely illeszkedik az eszközöd képességeihez és kontextus igényeihez.
Frissítve:
2025. szept. 16.