LLM Hub-ek produkzio-mailako AI dakar zuzenean zure Android gailura: pribatua, azkarra eta guztiz lokala. Exekutatu gailuko LLM modernoak (Gemma-3, Gemma-3n multimodala, Llama-3.2, Phi-4 Mini) testuinguru-leiho handiekin, memoria global iraunkorra eta gailuan gordetako dokumentu indexatuetan oinarritutako berreskurapen handitua (RAG) duten erantzunak. Sortu eta gorde txertaketak dokumentu eta oharretarako, exekutatu antzekotasun bektorialaren bilaketa lokalean eta aberastu erantzunak DuckDuckGo-k bultzatutako web bilaketarekin zuzeneko gertaerak behar dituzunean. Garrantzitsua den guztia zure telefonoan geratzen da esplizituki esportatzen ez baduzu: tokiko memoriak, indizeek eta txertatzeek zure pribatutasuna babesten dute, garrantzi eta zehaztasun handia eskaintzen duten bitartean.
Ezaugarri nagusiak
Gailuko LLM inferentzia: erantzun azkarrak eta pribatuak hodeiko menpekotasunik gabe; aukeratu zure gailu eta beharrekin bat datozen modeloak.
Retrieval-Augmented Generation (RAG): Ereduen arrazoiketa konbinatu dokumentu-zati indexatuekin eta txertatzeekin, gertakarietan oinarritutako erantzunak sortzeko.
Memoria global iraunkorra: gorde gertaerak, dokumentuak eta ezagutzak gailuko tokiko memoria iraunkor batean (Room DB) saioetan zehar epe luzera gogoratzeko.
Kapsulatzeak eta bektore-bilaketa: Sortu kapsultazioak, indexatu edukia lokalean eta berreskuratu dokumentu garrantzitsuenak antzekotasun bilaketa eraginkor batekin.
Euskarria multimodala: Erabili testu + irudi gaitasuna duten ereduak (Gemma-3n) interakzio aberatsagoetarako erabilgarri dagoenean.
Web bilaketaren integrazioa: Osatu tokiko ezagutza DuckDuckGo-k bultzatutako web emaitzekin, RAG kontsultetarako eta berehalako erantzunetarako informazio eguneratua lortzeko.
Lineaz kanpo prest: sarera sarbiderik gabe lan egin: modeloek, memoriak eta indizeek gailuan jarraitzen dute.
GPU azelerazioa (aukerakoa): aprobetxatu hardwarearen azelerazioa onartzen den tokian - GPU-ren babesko modelo handiagoekin emaitzarik onena lortzeko gutxienez 8 GB RAM duten gailuak gomendatzen ditugu.
Pribatutasuna-Lehenengo Diseinua: Memoria, txertaketak eta RAG indizeak lokalak izaten dira lehenespenez; ez dago hodeiko kargarik datuak partekatzea edo esportatzea esplizituki aukeratzen ez baduzu.
Testuinguru luzearen kudeaketa: testuinguru-leiho handiak dituzten modeloak onartzen ditu, laguntzaileak dokumentu eta historia zabaletan arrazoitu ahal izateko.
Garatzaileentzako egokia da: tokiko inferentzia, indexazio eta berreskurapen-kasuekin integratzen da lineaz kanpoko AI pribatua behar duten aplikazioetarako.
Zergatik aukeratu LLM Hub? LLM Hub mugikorrean AI pribatu, zehatza eta malgua emateko eraikia dago. Tokiko inferentziaren abiadura berreskurapenean oinarritutako sistemen oinarri faktikoarekin eta memoria iraunkorraren erosotasunarekin uztartzen ditu - aproposa ezagutza-langileentzat, pribatutasunarekin kontzientziatuta dauden erabiltzaileentzat eta tokiko lehen AI funtzioak eraikitzen dituzten garatzaileentzat.
Onartutako ereduak: Gemma-3, Gemma-3n (multimodala), Llama-3.2, Phi-4 Mini — aukeratu zure gailuaren gaitasun eta testuinguru beharretara egokitzen den eredua.
Azken eguneratzea
2025(e)ko ira. 16(a)