LLM Hub هوش مصنوعی درجه تولید را مستقیماً به دستگاه Android شما می آورد - خصوصی، سریع و کاملاً محلی. LLMهای مدرن روی دستگاه (Gemma-3، Gemma-3n چندوجهی، Llama-3.2، Phi-4 Mini) با پنجرههای زمینه بزرگ، حافظه جهانی دائمی، و تولید تقویتشده با بازیابی (RAG) که پاسخها را در اسناد نمایهشده ذخیرهشده در دستگاه مستقر میکند، اجرا کنید. جاسازیهایی را برای اسناد و یادداشتها ایجاد و ذخیره کنید، جستجوی شباهت برداری را به صورت محلی اجرا کنید، و هنگامی که به حقایق زنده نیاز دارید، پاسخها را با جستجوی وب مبتنی بر DuckDuckGo غنی کنید. همه چیز مهم در تلفن شما باقی می ماند مگر اینکه به صراحت آن را صادر کنید: حافظه محلی، فهرست ها و جاسازی ها فقط از حریم خصوصی شما محافظت می کنند و در عین حال ارتباط و دقت بالایی را ارائه می دهند.
ویژگی های کلیدی
استنتاج LLM روی دستگاه: پاسخ های سریع و خصوصی بدون وابستگی به ابر. مدل هایی را انتخاب کنید که با دستگاه و نیازهای شما مطابقت دارند.
Retrieval-Augmented Generation (RAG): استدلال مدل را با تکههای سند نمایهشده و جاسازیها ترکیب کنید تا پاسخهای مبتنی بر واقعیت تولید کنید.
حافظه جهانی پایدار: حقایق، اسناد و دانش را در یک حافظه محلی دائمی دستگاه (Room DB) برای یادآوری طولانی مدت در طول جلسات ذخیره کنید.
جاسازیها و جستجوی برداری: جاسازیها را ایجاد کنید، محتوا را فهرستبندی محلی کنید و مرتبطترین اسناد را با جستجوی مشابه کارآمد بازیابی کنید.
پشتیبانی چندوجهی: از مدلهای دارای متن + تصویر (Gemma-3n) برای تعاملات غنیتر در صورت وجود استفاده کنید.
یکپارچهسازی جستجوی وب: دانش محلی را با نتایج وب مبتنی بر DuckDuckGo تکمیل کنید تا اطلاعات بهروز را برای پرسشهای RAG و پاسخهای فوری دریافت کنید.
آماده آفلاین: بدون دسترسی به شبکه کار کنید - مدلها، حافظه و فهرستها در دستگاه باقی میمانند.
شتاب GPU (اختیاری): در صورت پشتیبانی از شتاب سختافزاری بهره ببرید - برای بهترین نتایج با مدلهای بزرگتر با پشتیبانی از GPU، دستگاههایی با حداقل 8 گیگابایت رم را توصیه میکنیم.
Privacy-First Design: حافظه، جاسازیها و شاخصهای RAG بهطور پیشفرض محلی باقی میمانند. هیچ آپلود ابری وجود ندارد مگر اینکه صریحاً اشتراکگذاری یا صادر کردن دادهها را انتخاب کنید.
Long-Context Handling: از مدل هایی با پنجره های زمینه بزرگ پشتیبانی می کند تا دستیار بتواند در مورد اسناد و تاریخچه های گسترده استدلال کند.
توسعهدهنده: با موارد استفاده محلی، نمایهسازی و بازیابی برای برنامههایی که به هوش مصنوعی آفلاین و خصوصی نیاز دارند، ادغام میشود.
چرا LLM Hub را انتخاب کنید؟ LLM Hub برای ارائه هوش مصنوعی خصوصی، دقیق و انعطاف پذیر در تلفن همراه ساخته شده است. این سرعت استنتاج محلی را با مبنای واقعی سیستمهای مبتنی بر بازیابی و راحتی حافظه پایدار ادغام میکند - ایدهآل برای دانشآموزان، کاربران آگاه به حریم خصوصی، و توسعهدهندگانی که ویژگیهای هوش مصنوعی محلی را برای اولین بار ایجاد میکنند.
مدلهای پشتیبانیشده: Gemma-3، Gemma-3n (چند وجهی)، Llama-3.2، Phi-4 Mini — مدلی را انتخاب کنید که متناسب با قابلیتهای دستگاه و نیازهای زمینه شما باشد.
تاریخ بهروزرسانی
۲۵ شهریور ۱۴۰۴