LLM Hub tuo tuotantotason tekoälyn suoraan Android-laitteeseesi – yksityisesti, nopeasti ja täysin paikallisesti. Voit käyttää moderneja, laitteella toimivia LLM-malleja (Gemma-3, Gemma-3n monimuotoinen, Llama-3.2, Phi-4 Mini) suurilla konteksti-ikkunoilla, pysyvällä globaalilla muistilla ja haku-täydennetyllä generoinnilla (RAG), joka perustaa vastaukset laitteelle tallennettuihin indeksoituihin dokumentteihin. Luo ja tallenna upotuksia dokumenteille ja muistiinpanoille, tee vektorihakuja paikallisesti ja täydennä vastauksia DuckDuckGo-verkkohaulla, kun tarvitset ajantasaista tietoa. Kaikki tärkeä pysyy puhelimessasi, ellet erikseen vie sitä: vain paikallinen muisti, indeksit ja upotukset suojaavat yksityisyyttäsi ja takaavat samalla korkean relevanssin ja tarkkuuden.
Tärkeimmät ominaisuudet
Laitteella tapahtuva LLM-päätelmä: Nopeat, yksityiset vastaukset ilman pilvipalveluita; valitse mallit, jotka sopivat laitteeseesi ja tarpeisiisi.
Haku-täydennetty generointi (RAG): Yhdistä mallin päättelykyky indeksoituihin dokumenttipaloihin ja upotuksiin saadaksesi faktoihin perustuvia vastauksia.
Pysyvä globaali muisti: Tallenna faktoja, dokumentteja ja tietoa pysyvään, laitteen paikalliseen muistiin (Room DB) pitkäaikaista käyttöä varten eri istuntojen välillä.
Upotukset ja vektorihaku: Luo upotuksia, indeksoi sisältöä paikallisesti ja hae relevantimmat dokumentit tehokkaalla samankaltaisuushaulla.
Monimuotoinen tuki: Käytä tekstiä ja kuvaa ymmärtäviä malleja (Gemma-3n) monipuolisempiin vuorovaikutuksiin, kun ne ovat saatavilla.
Verkkohakuintegraatio: Täydennä paikallista tietoa DuckDuckGo-verkkotuloksilla hakeaksesi ajantasaista tietoa RAG-kyselyihin ja nopeisiin vastauksiin.
Offline-valmius: Toimii ilman verkkoyhteyttä – mallit, muisti ja indeksit säilyvät laitteella.
GPU-kiihdytys (valinnainen): Hyödynnä laitteistokiihdytystä tuetuissa laitteissa – parhaiden tulosten saavuttamiseksi suuremmilla GPU-tuetuilla malleilla suosittelemme laitteita, joissa on vähintään 8 Gt RAM-muistia.
Yksityisyys ensin -suunnittelu: Muisti, upotukset ja RAG-indeksit pysyvät oletuksena paikallisina; tietoja ei ladata pilveen, ellet erikseen valitse jakaa tai viedä niitä.
Pitkän kontekstin käsittely: Tuki malleille, joissa on suuret konteksti-ikkunat, jotta avustaja voi käsitellä laajoja dokumentteja ja keskusteluhistorioita.
Kehittäjäystävällinen: Integroituu paikallisiin päättely-, indeksointi- ja hakukäyttötapauksiin sovelluksille, jotka tarvitsevat yksityistä, offline-tekoälyä.
Miksi valita LLM Hub? LLM Hub on suunniteltu tarjoamaan yksityistä, tarkkaa ja joustavaa tekoälyä mobiililaitteilla. Se yhdistää paikallisen päättelyn nopeuden hakupohjaisten järjestelmien faktapohjaisuuteen ja pysyvän muistin helppouteen – ihanteellinen tietotyöläisille, yksityisyydestään huolehtiville käyttäjille ja kehittäjille, jotka rakentavat paikallisesti toimivia tekoälyominaisuuksia.
Tuetut mallit: Gemma-3, Gemma-3n (monimuotoinen), Llama-3.2, Phi-4 Mini – valitse malli, joka sopii laitteesi ominaisuuksiin ja kontekstitarpeisiin.