+500
عملية تنزيل
تقييم المحتوى
الجميع
صورة لقطة الشاشة
صورة لقطة الشاشة
صورة لقطة الشاشة
صورة لقطة الشاشة
صورة لقطة الشاشة
صورة لقطة الشاشة
صورة لقطة الشاشة
صورة لقطة الشاشة
صورة لقطة الشاشة

لمحة عن هذا التطبيق

يقدم LLM Hub قوة الذكاء الاصطناعي الاحترافية مباشرة إلى جهاز Android الخاص بك — بشكل خاص، سريع، ومحلي بالكامل. قم بتشغيل نماذج اللغات الكبيرة (LLMs) الحديثة على جهازك (Gemma-3، Gemma-3n متعدد الوسائط، Llama-3.2، Phi-4 Mini) مع نوافذ سياق واسعة، ذاكرة عالمية دائمة، وقدرة على التوليد المعزز بالاسترجاع (RAG) الذي يستند في إجاباته إلى المستندات المفهرسة المخزنة على الجهاز. يمكنك إنشاء وتخزين التضمينات للمستندات والملاحظات، إجراء بحث التشابه المتجه محليًا، وإثراء الردود بنتائج بحث الويب المدعومة من DuckDuckGo عند الحاجة إلى معلومات حديثة. كل ما هو مهم يبقى على هاتفك ما لم تقم بتصديره صراحة: الذاكرة، الفهارس، والتضمينات المحلية فقط تحمي خصوصيتك مع توفير دقة وملاءمة عالية.

الميزات الرئيسية

استنتاج نماذج اللغات الكبيرة على الجهاز: استجابات سريعة وخاصة دون الحاجة إلى الاتصال بالإنترنت؛ اختر النماذج التي تناسب جهازك واحتياجاتك.
التوليد المعزز بالاسترجاع (RAG): يجمع بين قدرة النموذج على الاستدلال وأجزاء المستندات المفهرسة والتضمينات لتقديم إجابات مدعومة بالحقائق.
ذاكرة عالمية دائمة: احفظ الحقائق، المستندات، والمعرفة في ذاكرة دائمة ومحلية على الجهاز (Room DB) لاستدعائها لاحقًا عبر الجلسات.
التضمينات وبحث المتجهات: أنشئ التضمينات، فهرس المحتوى محليًا، واسترجع المستندات الأكثر صلة بكفاءة باستخدام بحث التشابه.
دعم متعدد الوسائط: استخدم النماذج التي تتعامل مع النصوص والصور (Gemma-3n) لتفاعلات أكثر ثراءً عند توفرها.
تكامل بحث الويب: استكمل المعرفة المحلية بنتائج بحث الويب المدعومة من DuckDuckGo لجلب معلومات محدثة لاستعلامات RAG والإجابات الفورية.
جاهز للعمل دون اتصال: يعمل التطبيق دون الحاجة إلى اتصال بالشبكة — النماذج، الذاكرة، والفهارس تبقى على الجهاز.
تسريع وحدة معالجة الرسوميات (اختياري): استفد من تسريع الأجهزة حيثما كان مدعومًا — للحصول على أفضل النتائج مع النماذج الأكبر المدعومة بوحدة معالجة الرسوميات، نوصي بأجهزة تحتوي على ذاكرة وصول عشوائي (RAM) لا تقل عن 8 جيجابايت.
تصميم يركز على الخصوصية أولاً: تبقى الذاكرة، التضمينات، وفهارس RAG محلية بشكل افتراضي؛ لا يتم تحميل أي شيء إلى السحابة ما لم تختر صراحة مشاركة أو تصدير البيانات.
معالجة السياق الطويل: يدعم النماذج ذات نوافذ السياق الكبيرة لتمكين المساعد من فهم وتحليل المستندات والسجلات التاريخية الطويلة.
مناسب للمطورين: يتكامل مع حالات الاستخدام المحلية للاستنتاج، الفهرسة، والاسترجاع للتطبيقات التي تتطلب ذكاء اصطناعيًا خاصًا ويعمل دون اتصال.
لماذا تختار LLM Hub؟ تم تصميم LLM Hub لتقديم ذكاء اصطناعي خاص، دقيق، ومرن على الأجهزة المحمولة. يجمع بين سرعة الاستنتاج المحلي وقوة الاستناد إلى الحقائق في الأنظمة القائمة على الاسترجاع، بالإضافة إلى سهولة الذاكرة الدائمة — مما يجعله مثاليًا للعاملين في مجال المعرفة، المستخدمين المهتمين بالخصوصية، والمطورين الذين يبنون ميزات الذكاء الاصطناعي التي تعمل محليًا أولاً.

النماذج المدعومة: Gemma-3، Gemma-3n (متعدد الوسائط)، Llama-3.2، Phi-4 Mini — اختر النموذج الذي يناسب قدرات جهازك واحتياجات السياق.
تاريخ التحديث
16‏/09‏/2025

أمان البيانات

يبدأ الحفاظ على أمان بياناتك بفهم الطريقة التي يتّبعها مطوِّرو التطبيقات لجمع بياناتك ومشاركتها. قد تختلف خصوصية البيانات وممارسات الأمان حسب كيفية استخدامك للتطبيق ومنطقتك وعمرك. يوفّر مطوِّر التطبيقات هذه المعلومات وقد يعدِّلها بمرور الوقت.
لا تتم مشاركة أيّ بيانات مع جهات خارجية.
مزيد من المعلومات حول الآلية التي يتّبعها مطوِّرو البرامج للإشارة إلى مشاركة بيانات المستخدمين
لم يتم تجميع أي بيانات.
مزيد من المعلومات حول الآلية التي يتّبعها مطوِّرو البرامج للإشارة إلى جمع بيانات المستخدمين

أحدث الميزات


- تمت ترقية نافذة السياق لـ Phi-4 Mini Max إلى 4096 مع دعم وحدة GPU
- إعدادات تحميل النماذج تتذكر آخر الإعدادات الخاصة بك
- تمت إضافة دعم الترجمة للغة الإيطالية