LLM Hub მოაქვს წარმოების დონის AI პირდაპირ თქვენს Android მოწყობილობას — კერძო, სწრაფი და სრულად ლოკალური. გაუშვით თანამედროვე მოწყობილობაზე LLM-ები (Gemma-3, Gemma-3n მულტიმოდალური, Llama-3.2, Phi-4 Mini) დიდი კონტექსტური ფანჯრებით, მუდმივი გლობალური მეხსიერებით და მოძიებით გაძლიერებული თაობით (RAG), რომელიც აფუძნებს პასუხებს მოწყობილობაზე შენახულ ინდექსირებულ დოკუმენტებში. შექმენით და შეინახეთ ჩაშენებები დოკუმენტებისა და შენიშვნებისთვის, განახორციელეთ ვექტორული მსგავსების ძიება ადგილობრივად და გაამდიდრეთ პასუხები DuckDuckGo-ზე მხარდაჭერილი ვებ ძიებით, როდესაც გჭირდებათ ცოცხალი ფაქტები. ყველაფერი მნიშვნელოვანი რჩება თქვენს ტელეფონში, თუ არ გააკეთებთ მკაფიოდ ექსპორტს: მხოლოდ ლოკალური მეხსიერება, ინდექსები და ჩაშენებები იცავს თქვენს კონფიდენციალურობას, აწვდის მაღალ შესაბამისობას და სიზუსტეს.
ძირითადი მახასიათებლები
მოწყობილობაზე LLM დასკვნა: სწრაფი, პირადი პასუხები ღრუბელზე დამოკიდებულების გარეშე; აირჩიეთ მოდელები, რომლებიც შეესაბამება თქვენს მოწყობილობას და საჭიროებებს.
მოძიება-გაძლიერებული თაობა (RAG): შეუთავსეთ მოდელის მსჯელობა ინდექსირებული დოკუმენტის ნაწილებთან და ჩაშენებებთან, რათა მიიღოთ ფაქტებზე დასაბუთებული პასუხები.
მუდმივი გლობალური მეხსიერება: შეინახეთ ფაქტები, დოკუმენტები და ცოდნა მუდმივ, მოწყობილობის ადგილობრივ მეხსიერებაში (Room DB) სესიების განმავლობაში გრძელვადიანი გახსენებისთვის.
ჩაშენებები და ვექტორული ძიება: შექმენით ჩაშენებები, განათავსეთ შინაარსი ადგილობრივად და მოიძიეთ ყველაზე შესაბამისი დოკუმენტები ეფექტური მსგავსების ძიებით.
მულტიმოდალური მხარდაჭერა: გამოიყენეთ ტექსტის + გამოსახულების მქონე მოდელები (Gemma-3n) უფრო მდიდარი ურთიერთქმედებისთვის, როცა ხელმისაწვდომია.
ვებ ძიების ინტეგრაცია: შეავსეთ ადგილობრივი ცოდნა DuckDuckGo-ზე მხარდაჭერილი ვებ შედეგებით, რათა მიიღოთ უახლესი ინფორმაცია RAG მოთხოვნებისა და მყისიერი პასუხებისთვის.
Offline-Ready: მუშაობა ქსელში წვდომის გარეშე — მოდელები, მეხსიერება და ინდექსები შენარჩუნებულია მოწყობილობაზე.
GPU აჩქარება (არასავალდებულო): ისარგებლეთ ტექნიკის აჩქარებით, სადაც მხარდაჭერილია - საუკეთესო შედეგებისთვის უფრო დიდი GPU მხარდაჭერილი მოდელებით, ჩვენ გირჩევთ მოწყობილობებს მინიმუმ 8 GB ოპერატიული მეხსიერებით.
Privacy-First Design: მეხსიერება, ჩაშენებები და RAG ინდექსები ნაგულისხმევად ლოკალური რჩება; ღრუბლოვანი ატვირთვის გარეშე, თუ პირდაპირ არ აირჩევთ მონაცემთა გაზიარებას ან ექსპორტს.
ხანგრძლივი კონტექსტის მართვა: მოდელების მხარდაჭერა დიდი კონტექსტური ფანჯრებით, რათა ასისტენტმა შეძლოს მსჯელობა ვრცელ დოკუმენტებსა და ისტორიებზე.
დეველოპერისთვის მეგობრული: ინტეგრირდება ადგილობრივ დასკვნასთან, ინდექსირებასთან და გამოყენების შემთხვევებთან აპებისთვის, რომლებიც საჭიროებენ კერძო, ოფლაინ AI-ს.
რატომ ავირჩიოთ LLM Hub? LLM Hub შექმნილია პირადი, ზუსტი და მოქნილი ხელოვნური ინტელექტის მიწოდებისთვის მობილურზე. ის აერთიანებს ლოკალური დასკვნის სიჩქარეს ძიების საფუძველზე დაფუძნებული სისტემების ფაქტობრივ დასაბუთებასთან და მუდმივი მეხსიერების მოხერხებულობასთან – იდეალურია ცოდნის მუშაკებისთვის, კონფიდენციალურობის შეგნებული მომხმარებლებისთვის და დეველოპერებისთვის, რომლებიც ქმნიან ადგილობრივ პირველ AI ფუნქციებს.
მხარდაჭერილი მოდელები: Gemma-3, Gemma-3n (მულტიმოდალური), Llama-3.2, Phi-4 Mini — აირჩიეთ მოდელი, რომელიც შეესაბამება თქვენი მოწყობილობის შესაძლებლობებს და კონტექსტის საჭიროებებს.