LLM Hub

500+
Endirmələr
Məzmun reytinqi
Hər kəs
Ekran şəkli
Ekran şəkli
Ekran şəkli
Ekran şəkli
Ekran şəkli
Ekran şəkli
Ekran şəkli
Ekran şəkli
Ekran şəkli

Bu tətbiq haqqında

LLM Hub istehsal dərəcəli AI-ni birbaşa Android cihazınıza gətirir - özəl, sürətli və tam yerli. Böyük kontekst pəncərələri, davamlı qlobal yaddaş və cihazda saxlanılan indeksləşdirilmiş sənədlərdə cavabları əsaslandıran axtarış-artırılmış nəsil (RAG) ilə müasir cihazda LLM-ləri (Gemma-3, Gemma-3n multimodal, Llama-3.2, Phi-4 Mini) işə salın. Sənədlər və qeydlər üçün daxiletmələr yaradın və saxlayın, vektor oxşarlığı axtarışını yerli olaraq həyata keçirin və canlı faktlara ehtiyac duyduğunuzda DuckDuckGo ilə işləyən veb axtarışı ilə cavabları zənginləşdirin. Siz onu açıq şəkildə ixrac etməyincə, vacib olan hər şey telefonunuzda qalır: yalnız yerli yaddaş, indekslər və daxiletmələr yüksək uyğunluq və dəqiqlik təqdim etməklə yanaşı, məxfiliyinizi qoruyur.

Əsas Xüsusiyyətlər

Cihazda LLM nəticəsi: Bulud asılılığı olmadan sürətli, şəxsi cavablar; cihazınıza və ehtiyaclarınıza uyğun modelləri seçin.
Axtarış-Artırılmış Nəsil (RAG): Faktlara əsaslanan cavablar hazırlamaq üçün model əsaslandırmasını indeksləşdirilmiş sənəd parçaları və daxiletmələrlə birləşdirin.
Davamlı Qlobal Yaddaş: Seanslar arasında uzunmüddətli geri çağırış üçün faktları, sənədləri və bilikləri davamlı, cihaz yerli yaddaşına (Otaq DB) saxlayın.
Yerləşdirmələr və Vektor Axtarışı: Yerləşdirmələr yaradın, məzmunu yerli olaraq indeksləşdirin və effektiv oxşarlıq axtarışı ilə ən uyğun sənədləri əldə edin.
Multimodal Dəstək: Mövcud olduqda daha zəngin qarşılıqlı əlaqə üçün mətn + təsvir qabiliyyətli modellərdən (Gemma-3n) istifadə edin.
Veb Axtarış İnteqrasiyası: RAG sorğuları və ani cavablar üçün ən müasir məlumatları əldə etmək üçün DuckDuckGo ilə təchiz edilmiş veb nəticələri ilə yerli bilikləri əlavə edin.
Oflayn-Hazır: Şəbəkəyə giriş olmadan işləyin — modellər, yaddaş və indekslər cihazda qalır.
GPU Sürətləndirilməsi (isteğe bağlı): Dəstəkləndiyi yerlərdə aparat sürətləndirilməsindən faydalanın — daha böyük GPU dəstəkli modellərlə ən yaxşı nəticələr əldə etmək üçün ən azı 8 GB RAM-a malik cihazları tövsiyə edirik.
Privacy-First Design: Yaddaş, daxiletmələr və RAG indeksləri defolt olaraq yerli olaraq qalır; məlumatı paylaşmağı və ya ixrac etməyi açıq şəkildə seçməsəniz, heç bir bulud yükləmir.
Uzun Kontekstdə İdarəetmə: Böyük kontekst pəncərələri olan modellər üçün dəstək, beləliklə köməkçi geniş sənədlər və tarixçələr üzərində düşünə bilsin.
Tərtibatçı üçün uyğundur: Şəxsi, oflayn AI tələb edən tətbiqlər üçün yerli nəticə, indeksləşdirmə və axtarış istifadə halları ilə inteqrasiya olunur.
Niyə LLM Hub-ı seçirsiniz? LLM Hub mobil cihazlarda özəl, dəqiq və çevik AI təqdim etmək üçün qurulub. O, yerli nəticə çıxarma sürətini axtarışa əsaslanan sistemlərin faktiki əsaslandırılması və davamlı yaddaşın rahatlığı ilə birləşdirir – bilik işçiləri, məxfiliyə diqqətli istifadəçilər və yerli ilk AI xüsusiyyətlərini yaradan tərtibatçılar üçün idealdır.

Dəstəklənən Modellər: Gemma-3, Gemma-3n (multimodal), Llama-3.2, Phi-4 Mini — cihazınızın imkanlarına və kontekst ehtiyaclarına uyğun modeli seçin.
Güncəlləmə vaxtı
16 sen 2025

Data təhlükəsizliyi

Təhlükəsizlik developerlərin məlumatlarınızı necə toplayıb paylaşdığını anlamaqdan başlayır. Məlumatların məxfiliyi və təhlükəsizlik təcrübələri istifadə, region və yaşınıza görə dəyişə bilər. Developer bu məlumatı təmin edir və zaman keçdikcə yeniləyə bilər.
Üçüncü tərəflərlə heç bir məlumat paylaşılmır
Tərtibatçıların paylaşımı necə bəyan etdikləri haqqında ətraflı məlumat
Məlumat toplanılmır
Tərtibatçıların toplamanı necə bəyan etdikləri haqqında ətraflı məlumat

Yeniliklər

- Upgraded Phi-4 Mini Max context window to 4096 and enabled GPU backend
- Model loading configuration now remembers your last settings
- Added translation support for Italian

Tətbiq dəstəyi

Developer haqqında
Yuan Qian
timmyboy0623@gmail.com
33 Magdalena Place, Rowville Rowville Clayton VIC 3168 Australia
undefined

Oxşar tətbiqlər