+۵۰۰
بارگیری‌ها
رده‌بندی محتوا
مناسب برای همه
نماگرفت
نماگرفت
نماگرفت
نماگرفت
نماگرفت
نماگرفت
نماگرفت
نماگرفت
نماگرفت

درباره این برنامه

LLM Hub هوش مصنوعی درجه تولید را مستقیماً به دستگاه Android شما می آورد - خصوصی، سریع و کاملاً محلی. LLM‌های مدرن روی دستگاه (Gemma-3، Gemma-3n چندوجهی، Llama-3.2، Phi-4 Mini) با پنجره‌های زمینه بزرگ، حافظه جهانی دائمی، و تولید تقویت‌شده با بازیابی (RAG) که پاسخ‌ها را در اسناد نمایه‌شده ذخیره‌شده در دستگاه مستقر می‌کند، اجرا کنید. جاسازی‌هایی را برای اسناد و یادداشت‌ها ایجاد و ذخیره کنید، جستجوی شباهت برداری را به صورت محلی اجرا کنید، و هنگامی که به حقایق زنده نیاز دارید، پاسخ‌ها را با جستجوی وب مبتنی بر DuckDuckGo غنی کنید. همه چیز مهم در تلفن شما باقی می ماند مگر اینکه به صراحت آن را صادر کنید: حافظه محلی، فهرست ها و جاسازی ها فقط از حریم خصوصی شما محافظت می کنند و در عین حال ارتباط و دقت بالایی را ارائه می دهند.

ویژگی های کلیدی

استنتاج LLM روی دستگاه: پاسخ های سریع و خصوصی بدون وابستگی به ابر. مدل هایی را انتخاب کنید که با دستگاه و نیازهای شما مطابقت دارند.
Retrieval-Augmented Generation (RAG): استدلال مدل را با تکه‌های سند نمایه‌شده و جاسازی‌ها ترکیب کنید تا پاسخ‌های مبتنی بر واقعیت تولید کنید.
حافظه جهانی پایدار: حقایق، اسناد و دانش را در یک حافظه محلی دائمی دستگاه (Room DB) برای یادآوری طولانی مدت در طول جلسات ذخیره کنید.
جاسازی‌ها و جستجوی برداری: جاسازی‌ها را ایجاد کنید، محتوا را فهرست‌بندی محلی کنید و مرتبط‌ترین اسناد را با جستجوی مشابه کارآمد بازیابی کنید.
پشتیبانی چندوجهی: از مدل‌های دارای متن + تصویر (Gemma-3n) برای تعاملات غنی‌تر در صورت وجود استفاده کنید.
یکپارچه‌سازی جستجوی وب: دانش محلی را با نتایج وب مبتنی بر DuckDuckGo تکمیل کنید تا اطلاعات به‌روز را برای پرسش‌های RAG و پاسخ‌های فوری دریافت کنید.
آماده آفلاین: بدون دسترسی به شبکه کار کنید - مدل‌ها، حافظه و فهرست‌ها در دستگاه باقی می‌مانند.
شتاب GPU (اختیاری): در صورت پشتیبانی از شتاب سخت‌افزاری بهره ببرید - برای بهترین نتایج با مدل‌های بزرگ‌تر با پشتیبانی از GPU، دستگاه‌هایی با حداقل 8 گیگابایت رم را توصیه می‌کنیم.
Privacy-First Design: حافظه، جاسازی‌ها و شاخص‌های RAG به‌طور پیش‌فرض محلی باقی می‌مانند. هیچ آپلود ابری وجود ندارد مگر اینکه صریحاً اشتراک‌گذاری یا صادر کردن داده‌ها را انتخاب کنید.
Long-Context Handling: از مدل هایی با پنجره های زمینه بزرگ پشتیبانی می کند تا دستیار بتواند در مورد اسناد و تاریخچه های گسترده استدلال کند.
توسعه‌دهنده: با موارد استفاده محلی، نمایه‌سازی و بازیابی برای برنامه‌هایی که به هوش مصنوعی آفلاین و خصوصی نیاز دارند، ادغام می‌شود.
چرا LLM Hub را انتخاب کنید؟ LLM Hub برای ارائه هوش مصنوعی خصوصی، دقیق و انعطاف پذیر در تلفن همراه ساخته شده است. این سرعت استنتاج محلی را با مبنای واقعی سیستم‌های مبتنی بر بازیابی و راحتی حافظه پایدار ادغام می‌کند - ایده‌آل برای دانش‌آموزان، کاربران آگاه به حریم خصوصی، و توسعه‌دهندگانی که ویژگی‌های هوش مصنوعی محلی را برای اولین بار ایجاد می‌کنند.

مدل‌های پشتیبانی‌شده: Gemma-3، Gemma-3n (چند وجهی)، Llama-3.2، Phi-4 Mini — مدلی را انتخاب کنید که متناسب با قابلیت‌های دستگاه و نیازهای زمینه شما باشد.
تاریخ به‌روزرسانی
۲۵ شهریور ۱۴۰۴

ایمنی داده

ایمنی با درک اینکه توسعه‌دهندگان چگونه داده‌های شما را جمع‌آوری و هم‌رسانی می‌کنند شروع می‌شود. شیوه‌های حفظ امنیت و حریم خصوصی داده‌ها ممکن است براساس استفاده، منطقه، و سن شما متفاوت باشد. توسعه‌دهنده این اطلاعات را ارائه کرده است و ممکن است آن را درطول زمان به‌روزرسانی کند.
هیچ داده‌ای با اشخاص ثالث هم‌رسانی نمی‌شود
درباره نحوه اعلام هم‌رسانی داده‌ها توسط توسعه‌دهندگان بیشتر بدانید
هیچ داده‌ای جمع‌آوری نمی‌شود
درباره نحوه اعلام جمع‌آوری داده‌ها توسط توسعه‌دهندگان بیشتر بدانید

تازه‌ها

- Upgraded Phi-4 Mini Max context window to 4096 and enabled GPU backend
- Model loading configuration now remembers your last settings
- Added translation support for Italian

پشتیبانی برنامه

درباره توسعه‌دهنده
Yuan Qian
timmyboy0623@gmail.com
33 Magdalena Place, Rowville Rowville Clayton VIC 3168 Australia
undefined

برنامه‌های مشابه