LLM Hub-ը արտադրական կարգի AI-ն ուղղակիորեն բերում է ձեր Android սարքին՝ մասնավոր, արագ և լիովին տեղական: Գործարկեք ժամանակակից սարքի LLM-ները (Gemma-3, Gemma-3n մուլտիմոդալ, Llama-3.2, Phi-4 Mini) մեծ համատեքստային պատուհաններով, մշտական գլոբալ հիշողությամբ և որոնման միջոցով ավելացված սերնդով (RAG), որը հիմնավորում է պատասխանները սարքում պահվող ինդեքսավորված փաստաթղթերում: Ստեղծեք և պահեք ներկառուցումներ փաստաթղթերի և նշումների համար, կատարեք վեկտորային նմանությունների որոնումը տեղական մակարդակում և հարստացրեք պատասխանները DuckDuckGo-ի կողմից սնուցվող վեբ որոնման միջոցով, երբ ձեզ անհրաժեշտ են կենդանի փաստեր: Ամեն կարևոր բան մնում է ձեր հեռախոսում, քանի դեռ չեք արտահանել այն. միայն տեղական հիշողությունը, ինդեքսները և ներկառուցումները պաշտպանում են ձեր գաղտնիությունը՝ միաժամանակ ապահովելով բարձր համապատասխանություն և ճշգրտություն:
Հիմնական հատկանիշները
Սարքի վրա LLM եզրակացություն. Արագ, մասնավոր պատասխաններ՝ առանց ամպային կախվածության; ընտրեք մոդելներ, որոնք համապատասխանում են ձեր սարքին և կարիքներին:
Առբերում-ավելացված սերունդ (RAG). Միավորել մոդելային պատճառաբանությունը ինդեքսավորված փաստաթղթերի կտորների և ներկառուցումների հետ՝ փաստերի վրա հիմնված պատասխաններ ստանալու համար:
Մշտական գլոբալ հիշողություն. պահեք փաստերը, փաստաթղթերը և գիտելիքները մշտական, սարքի տեղային հիշողության մեջ (Room DB)՝ նիստերի ընթացքում երկարաժամկետ հիշելու համար:
Ներդրումներ և վեկտորային որոնում. ստեղծեք ներկառուցումներ, ինդեքսավորեք բովանդակությունը տեղական մակարդակում և առբերեք առավել համապատասխան փաստաթղթերը արդյունավետ նմանությունների որոնման միջոցով:
Մուլտիմոդալ աջակցություն. օգտագործեք տեքստ + պատկեր ունակ մոդելներ (Gemma-3n) ավելի հարուստ փոխազդեցությունների համար, երբ առկա է:
Վեբ որոնման ինտեգրում. Լրացրեք տեղական գիտելիքները DuckDuckGo-ի կողմից սնուցվող վեբ արդյունքներով՝ RAG հարցումների և ակնթարթային պատասխանների համար արդի տեղեկատվություն ստանալու համար:
Անցանց պատրաստ. աշխատել առանց ցանցի մուտքի. մոդելները, հիշողությունը և ինդեքսները պահպանվում են սարքում:
GPU արագացում (ըստ ցանկության). Օգտվեք ապարատային արագացումից, որտեղ աջակցվում է. ավելի մեծ GPU-ով ապահովված մոդելների հետ լավագույն արդյունքների համար մենք խորհուրդ ենք տալիս սարքեր առնվազն 8 ԳԲ օպերատիվ հիշողությամբ:
Privacy-First Design. Հիշողությունը, ներկառուցումները և RAG ինդեքսները լռելյայն մնում են տեղական; ոչ մի ամպի վերբեռնում, եթե դուք բացահայտորեն ընտրեք տվյալների համօգտագործումը կամ արտահանումը:
Long-context Handling. Աջակցում է մեծ համատեքստային պատուհաններով մոդելներին, որպեսզի օգնականը կարողանա հիմնավորել ընդարձակ փաստաթղթերն ու պատմությունները:
Մշակողի համար հարմար. Ինտեգրվում է տեղական եզրակացությունների, ինդեքսավորման և որոնման դեպքերի հետ մասնավոր, անցանց AI պահանջող հավելվածների հետ:
Ինչու՞ ընտրել LLM Hub-ը: LLM Hub-ը ստեղծվել է բջջային սարքերում մասնավոր, ճշգրիտ և ճկուն AI մատուցելու համար: Այն միավորում է տեղային եզրակացության արագությունը որոնման վրա հիմնված համակարգերի փաստացի հիմնավորման և մշտական հիշողության հարմարության հետ. իդեալական է գիտելիքի աշխատողների, գաղտնիության գիտակցող օգտատերերի և տեղական առաջին AI-ի առանձնահատկություններ կառուցող մշակողների համար:
Աջակցվող մոդելներ.
Վերջին թարմացումը՝
16 սեպ, 2025 թ.