LLM Hub

500+
Ներբեռնումներ
Տարիքային սահմանափակումներ
Բոլորի համար
Սքրինշոթ
Սքրինշոթ
Սքրինշոթ
Սքրինշոթ
Սքրինշոթ
Սքրինշոթ
Սքրինշոթ
Սքրինշոթ
Սքրինշոթ

Հավելվածի մասին

LLM Hub-ը արտադրական կարգի AI-ն ուղղակիորեն բերում է ձեր Android սարքին՝ մասնավոր, արագ և լիովին տեղական: Գործարկեք ժամանակակից սարքի LLM-ները (Gemma-3, Gemma-3n մուլտիմոդալ, Llama-3.2, Phi-4 Mini) մեծ համատեքստային պատուհաններով, մշտական ​​գլոբալ հիշողությամբ և որոնման միջոցով ավելացված սերնդով (RAG), որը հիմնավորում է պատասխանները սարքում պահվող ինդեքսավորված փաստաթղթերում: Ստեղծեք և պահեք ներկառուցումներ փաստաթղթերի և նշումների համար, կատարեք վեկտորային նմանությունների որոնումը տեղական մակարդակում և հարստացրեք պատասխանները DuckDuckGo-ի կողմից սնուցվող վեբ որոնման միջոցով, երբ ձեզ անհրաժեշտ են կենդանի փաստեր: Ամեն կարևոր բան մնում է ձեր հեռախոսում, քանի դեռ չեք արտահանել այն. միայն տեղական հիշողությունը, ինդեքսները և ներկառուցումները պաշտպանում են ձեր գաղտնիությունը՝ միաժամանակ ապահովելով բարձր համապատասխանություն և ճշգրտություն:

Հիմնական հատկանիշները

Սարքի վրա LLM եզրակացություն. Արագ, մասնավոր պատասխաններ՝ առանց ամպային կախվածության; ընտրեք մոդելներ, որոնք համապատասխանում են ձեր սարքին և կարիքներին:
Առբերում-ավելացված սերունդ (RAG). Միավորել մոդելային պատճառաբանությունը ինդեքսավորված փաստաթղթերի կտորների և ներկառուցումների հետ՝ փաստերի վրա հիմնված պատասխաններ ստանալու համար:
Մշտական ​​գլոբալ հիշողություն. պահեք փաստերը, փաստաթղթերը և գիտելիքները մշտական, սարքի տեղային հիշողության մեջ (Room DB)՝ նիստերի ընթացքում երկարաժամկետ հիշելու համար:
Ներդրումներ և վեկտորային որոնում. ստեղծեք ներկառուցումներ, ինդեքսավորեք բովանդակությունը տեղական մակարդակում և առբերեք առավել համապատասխան փաստաթղթերը արդյունավետ նմանությունների որոնման միջոցով:
Մուլտիմոդալ աջակցություն. օգտագործեք տեքստ + պատկեր ունակ մոդելներ (Gemma-3n) ավելի հարուստ փոխազդեցությունների համար, երբ առկա է:
Վեբ որոնման ինտեգրում. Լրացրեք տեղական գիտելիքները DuckDuckGo-ի կողմից սնուցվող վեբ արդյունքներով՝ RAG հարցումների և ակնթարթային պատասխանների համար արդի տեղեկատվություն ստանալու համար:
Անցանց պատրաստ. աշխատել առանց ցանցի մուտքի. մոդելները, հիշողությունը և ինդեքսները պահպանվում են սարքում:
GPU արագացում (ըստ ցանկության). Օգտվեք ապարատային արագացումից, որտեղ աջակցվում է. ավելի մեծ GPU-ով ապահովված մոդելների հետ լավագույն արդյունքների համար մենք խորհուրդ ենք տալիս սարքեր առնվազն 8 ԳԲ օպերատիվ հիշողությամբ:
Privacy-First Design. Հիշողությունը, ներկառուցումները և RAG ինդեքսները լռելյայն մնում են տեղական; ոչ մի ամպի վերբեռնում, եթե դուք բացահայտորեն ընտրեք տվյալների համօգտագործումը կամ արտահանումը:
Long-context Handling. Աջակցում է մեծ համատեքստային պատուհաններով մոդելներին, որպեսզի օգնականը կարողանա հիմնավորել ընդարձակ փաստաթղթերն ու պատմությունները:
Մշակողի համար հարմար. Ինտեգրվում է տեղական եզրակացությունների, ինդեքսավորման և որոնման դեպքերի հետ մասնավոր, անցանց AI պահանջող հավելվածների հետ:
Ինչու՞ ընտրել LLM Hub-ը: LLM Hub-ը ստեղծվել է բջջային սարքերում մասնավոր, ճշգրիտ և ճկուն AI մատուցելու համար: Այն միավորում է տեղային եզրակացության արագությունը որոնման վրա հիմնված համակարգերի փաստացի հիմնավորման և մշտական ​​հիշողության հարմարության հետ. իդեալական է գիտելիքի աշխատողների, գաղտնիության գիտակցող օգտատերերի և տեղական առաջին AI-ի առանձնահատկություններ կառուցող մշակողների համար:

Աջակցվող մոդելներ.
Վերջին թարմացումը՝
16 սեպ, 2025 թ.

Տվյալների պաշտպանություն

Անվտանգությունը որոշվում է նրանով, թե ինչպես են մշակողները հավաքում և փոխանցում ձեր տվյալները։ Տվյալների գաղտնիության և անվտանգության ապահովումը կախված է հավելվածի օգտագործումից, օգտատիրոջ տարիքից և բնակության երկրից։ Այս տեղեկությունները տրամադրվել են մշակողի կողմից և ժամանակի ընթացքում կարող են թարմացվել։
Երրորդ կողմերին տվյալներ չեն փոխանցվում
Իմացեք ավելին, թե ինչպես են մշակողները հայտարարում տվյալների փոխանցման մասին
Հավելվածը տվյալներ չի հավաքում
Իմացեք ավելին, թե ինչպես են մշակողները հայտարարում տվյալների հավաքման մասին

Ինչ նոր բան կա

- Upgraded Phi-4 Mini Max context window to 4096 and enabled GPU backend
- Model loading configuration now remembers your last settings
- Added translation support for Italian