Tiny Mind : Offline Ai

يتضمن إعلانات
+100
عملية تنزيل
تقييم المحتوى
الجميع
صورة لقطة الشاشة
صورة لقطة الشاشة
صورة لقطة الشاشة
صورة لقطة الشاشة
صورة لقطة الشاشة

لمحة عن هذا التطبيق

Tiny AI: ذكاء اصطناعي محلي - مساعدك GPT غير المتصل بالإنترنت
Tiny AI هو مساعد ذكاء اصطناعي قوي يعمل دون اتصال بالإنترنت، ويعمل مباشرةً على جهازك - بدون إنترنت، بدون معالجة سحابية، وبدون أي مشاركة للبيانات. بفضل نماذج GGUF المحلية مثل TinyLlama، يتيح لك تجربة قوة الذكاء الاصطناعي التوليدي في أي مكان وزمان - مع كامل الخصوصية والحرية.

سواء كنت تبحث عن مساعد ذكي للكتابة، أو الإنتاجية، أو التعلم، أو حتى الدردشة، فإن Little AI يضع إمكانيات نماذج اللغات الكبيرة (LLM) في متناول يديك - دون الحاجة إلى إرسال أي بيانات إلى خوادم خارجية.

🚀 الميزات الرئيسية:
✅ يعمل بدون اتصال بالإنترنت بنسبة 100%

لا حاجة للاتصال بالإنترنت بعد تنزيل النماذج.

تبقى محادثاتك، وإشاراتك، وبياناتك موجودة بالكامل على جهازك.

✅ تنزيل وإدارة نماذج GGUF

اختر من بين مجموعة متنوعة من النماذج المحلية (مثل TinyLlama، وPhi، وMistral).

نزّل النماذج التي تريدها فقط. احذف النماذج أو بدّلها في أي وقت لتوفير المساحة.

✅ مطالبات نظام قابلة للتخصيص
دعم مطالبات النظام في النماذج التي تسمح بذلك.

قوالب تتكيف حسب بنية النموذج واحتياجات التنسيق.

✅ تجربة دردشة محلية ذكية
اطرح أسئلة، اكتب رسائل بريد إلكتروني، وفكّر في أفكار جديدة - تمامًا مثل دردشة الذكاء الاصطناعي، ولكن محليًا.

يعمل حتى في وضع الطيران!

✅ واجهة مستخدم سهلة الاستخدام
واجهة مستخدم بسيطة، دعم للنسق الداكن/الفاتح، وتخصيص الصورة الرمزية.

إعدادات بسيطة للبدء في ثوانٍ.

📥 النماذج المدعومة
TinyLlama 1.1B

Mistral

Phi

نماذج أخرى متوافقة مع GGUF

يتوفر كل نموذج بمستويات تكميم مختلفة (Q2_K، Q3_K، إلخ)، مما يتيح لك الموازنة بين السرعة والدقة وحجم التخزين.

🔐 تركيز كامل على الخصوصية

نؤمن بأن بياناتك ملكٌ لك. لا يرسل تطبيق Little AI محادثاتك إلى أي خادم ولا يخزن أي شيء في السحابة. كل شيء يتم على هاتفك.

💡 حالات الاستخدام:
✍️ مساعدة في الكتابة (رسائل البريد الإلكتروني، المقالات، الملخصات)

📚 مساعدة في الدراسة والإجابة على الأسئلة

🧠 العصف الذهني وتوليد الأفكار

💬 محادثات ممتعة وعفوية

📴 رفيق غير متصل بالإنترنت للسفر أو المناطق ذات الاتصال الضعيف

📱 أهم الميزات التقنية:
GGUF Model Loader (متوافق مع llama.cpp)

تبديل ديناميكي للنماذج وقوالب فورية

تنبيهات اتصال غير متصلة بالإنترنت قائمة على Toast

يعمل على معظم أجهزة Android الحديثة (يوصى بذاكرة وصول عشوائي (RAM) بسعة 4 جيجابايت فأكثر)

📎 ملاحظات:
لا يتطلب هذا التطبيق تسجيل دخول أو اتصالاً بالإنترنت بعد تنزيل النموذج.

قد تتطلب بعض النماذج مساحة ذاكرة أكبر. يُنصح باستخدام أجهزة بذاكرة وصول عشوائي (RAM) بسعة 6 جيجابايت فأكثر لاستخدام سلس.

المزيد من الطرازات والميزات (مثل الإدخال الصوتي، وسجل المحادثات، ودعم الإضافات) ستتوفر قريبًا!

🛠️ الفئات:
الإنتاجية

الأدوات

روبوت الدردشة بالذكاء الاصطناعي

أدوات مساعدة تُركز على الخصوصية

🌟 لماذا تختار Little AI؟
على عكس مساعدي الذكاء الاصطناعي التقليديين، لا يعتمد Little AI على السحابة. فهو يحترم خصوصيتك، ويمنحك تحكمًا في بيئة الذكاء الاصطناعي الخاصة بك، ويعمل أينما كنت - حتى في وضع الطيران أو في المناطق النائية.

استمتع بقوة الذكاء الاصطناعي في جيبك - دون أي تنازلات.

حمّل الآن وابدأ رحلة الذكاء الاصطناعي دون اتصال بالإنترنت مع Little AI!
لا تتبع. لا تسجيل دخول. بدون أي تعقيدات. فقط ذكاء خاص ومحمول.
تاريخ التحديث
11‏/08‏/2025

أمان البيانات

يبدأ الحفاظ على أمان بياناتك بفهم الطريقة التي يتّبعها مطوِّرو التطبيقات لجمع بياناتك ومشاركتها. قد تختلف خصوصية البيانات وممارسات الأمان حسب كيفية استخدامك للتطبيق ومنطقتك وعمرك. يوفّر مطوِّر التطبيقات هذه المعلومات وقد يعدِّلها بمرور الوقت.
لا تتم مشاركة أيّ بيانات مع جهات خارجية.
مزيد من المعلومات حول الآلية التي يتّبعها مطوِّرو البرامج للإشارة إلى مشاركة بيانات المستخدمين
لم يتم تجميع أي بيانات.
مزيد من المعلومات حول الآلية التي يتّبعها مطوِّرو البرامج للإشارة إلى جمع بيانات المستخدمين

أحدث الميزات

We’re excited to announce that we’ve expanded our supported AI model library with three new additions for enhanced versatility and performance.
New Models Added
Qwen2.5 1.5B Instruct
Available in multiple quantization formats (Q2_K → FP16) for diverse performance/memory trade-offs.
Llama 3.2 3B Instruct
Includes IQ, Q3, Q4, Q5, Q6, Q8, and F16 variants for flexible deployment.
Tesslate Tessa T1 3B
Wide range of quantization options from IQ2 to BF16 for optimal inference performance.