LLM Hub

500+
latausta
Sisällön ikärajoitus
Kaikki
Kuvakaappaus
Kuvakaappaus
Kuvakaappaus
Kuvakaappaus
Kuvakaappaus
Kuvakaappaus
Kuvakaappaus
Kuvakaappaus
Kuvakaappaus

Tietoa sovelluksesta

LLM Hub tuo tuotantotason tekoälyn suoraan Android-laitteeseesi – yksityisesti, nopeasti ja täysin paikallisesti. Voit käyttää moderneja, laitteella toimivia LLM-malleja (Gemma-3, Gemma-3n monimuotoinen, Llama-3.2, Phi-4 Mini) suurilla konteksti-ikkunoilla, pysyvällä globaalilla muistilla ja haku-täydennetyllä generoinnilla (RAG), joka perustaa vastaukset laitteelle tallennettuihin indeksoituihin dokumentteihin. Luo ja tallenna upotuksia dokumenteille ja muistiinpanoille, tee vektorihakuja paikallisesti ja täydennä vastauksia DuckDuckGo-verkkohaulla, kun tarvitset ajantasaista tietoa. Kaikki tärkeä pysyy puhelimessasi, ellet erikseen vie sitä: vain paikallinen muisti, indeksit ja upotukset suojaavat yksityisyyttäsi ja takaavat samalla korkean relevanssin ja tarkkuuden.

Tärkeimmät ominaisuudet

Laitteella tapahtuva LLM-päätelmä: Nopeat, yksityiset vastaukset ilman pilvipalveluita; valitse mallit, jotka sopivat laitteeseesi ja tarpeisiisi.
Haku-täydennetty generointi (RAG): Yhdistä mallin päättelykyky indeksoituihin dokumenttipaloihin ja upotuksiin saadaksesi faktoihin perustuvia vastauksia.
Pysyvä globaali muisti: Tallenna faktoja, dokumentteja ja tietoa pysyvään, laitteen paikalliseen muistiin (Room DB) pitkäaikaista käyttöä varten eri istuntojen välillä.
Upotukset ja vektorihaku: Luo upotuksia, indeksoi sisältöä paikallisesti ja hae relevantimmat dokumentit tehokkaalla samankaltaisuushaulla.
Monimuotoinen tuki: Käytä tekstiä ja kuvaa ymmärtäviä malleja (Gemma-3n) monipuolisempiin vuorovaikutuksiin, kun ne ovat saatavilla.
Verkkohakuintegraatio: Täydennä paikallista tietoa DuckDuckGo-verkkotuloksilla hakeaksesi ajantasaista tietoa RAG-kyselyihin ja nopeisiin vastauksiin.
Offline-valmius: Toimii ilman verkkoyhteyttä – mallit, muisti ja indeksit säilyvät laitteella.
GPU-kiihdytys (valinnainen): Hyödynnä laitteistokiihdytystä tuetuissa laitteissa – parhaiden tulosten saavuttamiseksi suuremmilla GPU-tuetuilla malleilla suosittelemme laitteita, joissa on vähintään 8 Gt RAM-muistia.
Yksityisyys ensin -suunnittelu: Muisti, upotukset ja RAG-indeksit pysyvät oletuksena paikallisina; tietoja ei ladata pilveen, ellet erikseen valitse jakaa tai viedä niitä.
Pitkän kontekstin käsittely: Tuki malleille, joissa on suuret konteksti-ikkunat, jotta avustaja voi käsitellä laajoja dokumentteja ja keskusteluhistorioita.
Kehittäjäystävällinen: Integroituu paikallisiin päättely-, indeksointi- ja hakukäyttötapauksiin sovelluksille, jotka tarvitsevat yksityistä, offline-tekoälyä.
Miksi valita LLM Hub? LLM Hub on suunniteltu tarjoamaan yksityistä, tarkkaa ja joustavaa tekoälyä mobiililaitteilla. Se yhdistää paikallisen päättelyn nopeuden hakupohjaisten järjestelmien faktapohjaisuuteen ja pysyvän muistin helppouteen – ihanteellinen tietotyöläisille, yksityisyydestään huolehtiville käyttäjille ja kehittäjille, jotka rakentavat paikallisesti toimivia tekoälyominaisuuksia.

Tuetut mallit: Gemma-3, Gemma-3n (monimuotoinen), Llama-3.2, Phi-4 Mini – valitse malli, joka sopii laitteesi ominaisuuksiin ja kontekstitarpeisiin.
Päivitetty
16.9.2025

Dataturvallisuus

Turvallisuus alkaa siitä, että ymmärrät, miten kehittäjät keräävät ja jakavat dataasi. Datan yksityisyys- ja turvallisuuskäytännöt saattavat vaihdella käytön, alueen ja iän mukaan. Kehittäjä on antanut nämä tiedot ja saattaa päivittää niitä myöhemmin.
Dataa ei jaettu kolmansille osapuolille
Lue, miten kehittäjät ilmoittavat jakamisesta
Dataa ei ole kerätty
Lue, miten kehittäjät ilmoittavat keräämisestä

Uutta


- Phi-4 Mini Max -konteksti-ikkuna päivitetty 4096:een ja GPU-tausta otettu käyttöön
- Mallin latausasetukset muistavat nyt viimeiset valintasi
- Lisätty italian käännöstuki

Sovelluksen tuki

Tietoa kehittäjästä
Yuan Qian
timmyboy0623@gmail.com
33 Magdalena Place, Rowville Rowville Clayton VIC 3168 Australia
undefined

Samanlaisia sovelluksia