LLM Hub براہ راست آپ کے Android ڈیوائس پر پروڈکشن گریڈ AI لاتا ہے — نجی، تیز، اور مکمل طور پر مقامی۔ جدید آن ڈیوائس LLMs (Gemma-3، Gemma-3n ملٹی موڈل، Llama-3.2، Phi-4 Mini) کو بڑی سیاق و سباق والی ونڈوز، مستقل عالمی میموری، اور دوبارہ حاصل کرنے والی بڑھا ہوا جنریشن (RAG) کے ساتھ چلائیں جو ڈیوائس پر اسٹور کردہ انڈیکسڈ دستاویزات میں جوابات کو بنیاد بناتا ہے۔ دستاویزات اور نوٹس کے لیے ایمبیڈنگز بنائیں اور اسٹور کریں، مقامی طور پر ویکٹر مماثلت کی تلاش چلائیں، اور جب آپ کو لائیو حقائق کی ضرورت ہو تو DuckDuckGo سے چلنے والی ویب تلاش کے ساتھ جوابات کو بہتر بنائیں۔ ہر اہم چیز آپ کے فون پر رہتی ہے جب تک کہ آپ اسے واضح طور پر برآمد نہیں کرتے ہیں: صرف مقامی میموری، اشاریہ جات، اور سرایت آپ کی رازداری کی حفاظت کرتے ہیں جبکہ اعلی مطابقت اور درستگی فراہم کرتے ہیں۔
کلیدی خصوصیات
آن ڈیوائس ایل ایل ایم کا اندازہ: بادل پر انحصار کے بغیر تیز، نجی جوابات؛ ایسے ماڈلز کا انتخاب کریں جو آپ کے آلے اور ضروریات سے مماثل ہوں۔
Retrieval-Augmented Generation (RAG): حقیقت پر مبنی جوابات تیار کرنے کے لیے ماڈل ریجننگ کو انڈیکسڈ دستاویز کے ٹکڑوں اور ایمبیڈنگس کے ساتھ جوڑیں۔
مستقل عالمی یادداشت: تمام سیشنز میں طویل مدتی یادداشت کے لیے حقائق، دستاویزات اور علم کو ایک مستقل، ڈیوائس-لوکل میموری (کمرہ DB) میں محفوظ کریں۔
ایمبیڈنگز اور ویکٹر کی تلاش: ایمبیڈنگز بنائیں، مواد کو مقامی طور پر انڈیکس کریں، اور موثر مماثلت کی تلاش کے ساتھ انتہائی متعلقہ دستاویزات کو بازیافت کریں۔
ملٹی موڈل سپورٹ: جب دستیاب ہو تو بہتر تعاملات کے لیے ٹیکسٹ + امیج کے قابل ماڈلز (Gemma-3n) استعمال کریں۔
ویب سرچ انٹیگریشن: RAG کے سوالات اور فوری جوابات کے لیے تازہ ترین معلومات حاصل کرنے کے لیے DuckDuckGo سے چلنے والے ویب نتائج کے ساتھ مقامی معلومات کی تکمیل کریں۔
آف لائن کے لیے تیار: نیٹ ورک تک رسائی کے بغیر کام کریں — ماڈل، میموری، اور اشاریہ جات ڈیوائس پر برقرار رہتے ہیں۔
GPU ایکسلریشن (اختیاری): ہارڈویئر ایکسلریشن سے فائدہ اٹھائیں جہاں سپورٹ ہو — بڑے GPU کی حمایت یافتہ ماڈلز کے ساتھ بہترین نتائج کے لیے ہم کم از کم 8GB RAM والے آلات تجویز کرتے ہیں۔
پرائیویسی-فرسٹ ڈیزائن: میموری، ایمبیڈنگز، اور آر اے جی انڈیکس ڈیفالٹ کے لحاظ سے مقامی رہتے ہیں۔ کوئی کلاؤڈ اپ لوڈ نہیں ہے جب تک کہ آپ واضح طور پر ڈیٹا کا اشتراک یا برآمد کرنے کا انتخاب نہ کریں۔
لانگ سیاق و سباق ہینڈلنگ: بڑے سیاق و سباق والی ونڈوز والے ماڈلز کے لیے سپورٹ تاکہ اسسٹنٹ وسیع دستاویزات اور تاریخوں پر استدلال کر سکے۔
ڈویلپر کے لیے دوستانہ: نجی، آف لائن AI کی ضرورت والی ایپس کے لیے مقامی تخمینہ، اشاریہ سازی، اور بازیافت کے استعمال کے کیسز کے ساتھ مربوط ہوتا ہے۔
LLM Hub کا انتخاب کیوں کریں؟ LLM Hub موبائل پر نجی، درست اور لچکدار AI فراہم کرنے کے لیے بنایا گیا ہے۔ یہ مقامی تخمینہ کی رفتار کو بازیافت پر مبنی نظاموں کی حقیقت پر مبنی بنیادوں اور مستقل میموری کی سہولت کے ساتھ ضم کرتا ہے — علمی کارکنوں، رازداری سے آگاہ صارفین، اور مقامی-پہلی AI خصوصیات بنانے والے ڈویلپرز کے لیے مثالی ہے۔
معاون ماڈلز: Gemma-3، Gemma-3n (ملٹی موڈل)، Llama-3.2، Phi-4 Mini — وہ ماڈل منتخب کریں جو آپ کے آلے کی صلاحیتوں اور سیاق و سباق کی ضروریات کے مطابق ہو۔
اپ ڈیٹ کردہ بتاریخ
16 ستمبر، 2025