LLM Hub

500+
İndirme
İçerik derecelendirmesi
Tüm yaşlar
Ekran görüntüsü resmi
Ekran görüntüsü resmi
Ekran görüntüsü resmi
Ekran görüntüsü resmi
Ekran görüntüsü resmi
Ekran görüntüsü resmi
Ekran görüntüsü resmi
Ekran görüntüsü resmi
Ekran görüntüsü resmi

Bu uygulama hakkında

LLM Hub, üretim seviyesinde yapay zekayı doğrudan Android cihazınıza getirir — gizli, hızlı ve tamamen yerel. Geniş bağlam pencereleri, kalıcı küresel bellek ve cihazda depolanan dizinlenmiş belgelerdeki yanıtları temel alan alma artırılmış üretim (RAG) ile modern cihaz içi LLM'leri (Gemma-3, Gemma-3n çok modlu, Llama-3.2, Phi-4 Mini) çalıştırın. Belgeler ve notlar için gömülü oluşturup depolayın, yerel olarak vektör benzerlik araması yapın ve güncel bilgilere ihtiyacınız olduğunda DuckDuckGo destekli web aramasıyla yanıtları zenginleştirin. Açıkça dışa aktarmadığınız sürece tüm önemli veriler telefonunuzda kalır: Yalnızca yerel bellek, dizinler ve gömülü, yüksek alaka düzeyi ve doğruluğu sağlarken gizliliğinizi korur.

Temel Özellikler

Cihaz İçi LLM Çıkarımı: Bulut bağımlılığı olmadan hızlı, gizli yanıtlar; cihazınıza ve ihtiyaçlarınıza uygun modelleri seçin.
Alma Artırılmış Üretim (RAG): Gerçeklere dayalı yanıtlar üretmek için modelin akıl yürütmesini dizinlenmiş belge parçaları ve gömülü ile birleştirin.
Kalıcı Küresel Bellek: Oturumlar arası uzun süreli hatırlama için gerçekleri, belgeleri ve bilgiyi kalıcı, cihaz yerel belleğine (Room DB) kaydedin.
Gömülü ve Vektör Arama: Gömülü oluşturun, içeriği yerel olarak dizinleyin ve verimli benzerlik aramasıyla en alakalı belgeleri alın.
Çok Modlu Destek: Mevcut olduğunda daha zengin etkileşimler için metin + görüntü yetenekli modelleri (Gemma-3n) kullanın.
Web Arama Entegrasyonu: RAG sorguları ve anlık yanıtlar için güncel bilgileri almak üzere DuckDuckGo destekli web sonuçlarıyla yerel bilgiyi tamamlayın.
Çevrimdışı Kullanım: Ağ erişimi olmadan çalışın — modeller, bellek ve dizinler cihazda kalır.
GPU Hızlandırma (isteğe bağlı): Desteklendiği yerlerde donanım hızlandırmadan yararlanın — daha büyük GPU destekli modellerle en iyi sonuçlar için en az 8 GB RAM'e sahip cihazları öneririz.
Gizlilik Odaklı Tasarım: Bellek, gömülü ve RAG dizinleri varsayılan olarak yerel kalır; verileri açıkça paylaşmayı veya dışa aktarmayı seçmediğiniz sürece buluta yükleme yapılmaz.
Uzun Bağlam İşleme: Asistanın kapsamlı belgeler ve geçmişler üzerinde akıl yürütebilmesi için büyük bağlam pencerelerine sahip modeller için destek.
Geliştirici Dostu: Özel, çevrimdışı yapay zeka gerektiren uygulamalar için yerel çıkarım, dizinleme ve alma kullanım durumlarıyla entegre olur.
Neden LLM Hub'ı Seçmelisiniz? LLM Hub, mobil cihazlarda gizli, doğru ve esnek yapay zeka sunmak için tasarlanmıştır. Yerel çıkarımın hızını, alma tabanlı sistemlerin gerçeklere dayalı temelini ve kalıcı belleğin rahatlığını birleştirir — bilgi çalışanları, gizlilik bilincine sahip kullanıcılar ve yerel öncelikli yapay zeka özellikleri geliştiren geliştiriciler için idealdir.

Desteklenen Modeller: Gemma-3, Gemma-3n (çok modlu), Llama-3.2, Phi-4 Mini — cihaz yeteneklerinize ve bağlam ihtiyaçlarınıza uygun modeli seçin.
Güncellenme tarihi
16 Eyl 2025

Veri güvenliği

Geliştiricilerin verilerinizi nasıl toplayıp paylaştıklarını anlamak, güvenliğin ilk adımıdır. Veri gizliliği ve güvenliği yöntemleri; kullanımınıza, bölgenize ve yaşınıza göre değişiklik gösterebilir. Geliştiricinin sağladığı bu bilgiler zaman içinde güncellenebilir.
Üçüncü taraflarla veri paylaşımı yok
Geliştiricilerin, veri paylaşımını nasıl beyan ettikleri hakkında daha fazla bilgi edinin
Veri toplanamadı
Geliştiricilerin, veri toplamayı nasıl beyan ettikleri hakkında daha fazla bilgi edinin

Yenilikler


- Phi-4 Mini Max bağlam penceresi 4096’ya yükseltildi ve GPU backend etkinleştirildi
- Model yükleme yapılandırması artık son ayarlarınızı hatırlıyor
- İtalyanca çeviri eklendi

Uygulama desteği

Geliştirici hakkında
Yuan Qian
timmyboy0623@gmail.com
33 Magdalena Place, Rowville Rowville Clayton VIC 3168 Australia
undefined

Benzer uygulamalar