LLM Hub ले उत्पादन-ग्रेड AI लाई सीधा तपाईंको एन्ड्रोइड उपकरणमा ल्याउँछ — निजी, छिटो, र पूर्ण रूपमा स्थानीय। ठूला कन्टेक्स्ट विन्डोज, पर्सिस्टेन्ट ग्लोबल मेमोरी, र रिट्रिभल-अग्मेन्टेड जेनरेशन (RAG) को साथमा आधुनिक अन-डिभाइस LLMs (Gemma-3, Gemma-3n multimodal, Llama-3.2, Phi-4 Mini) चलाउनुहोस् जसले यन्त्रमा भण्डारण गरिएका अनुक्रमणिका कागजातहरूमा जवाफहरूलाई आधार दिन्छ। कागजातहरू र नोटहरूको लागि इम्बेडिङहरू सिर्जना गर्नुहोस् र भण्डार गर्नुहोस्, स्थानीय रूपमा भेक्टर समानता खोजी चलाउनुहोस्, र तपाईंलाई प्रत्यक्ष तथ्यहरू आवश्यक पर्दा DuckDuckGo-संचालित वेब खोजको साथ प्रतिक्रियाहरू समृद्ध गर्नुहोस्। तपाईंले स्पष्ट रूपमा निर्यात नगरेसम्म सबै महत्त्वपूर्ण कुराहरू तपाईंको फोनमा रहन्छ: स्थानीय-मात्र मेमोरी, अनुक्रमणिकाहरू, र इम्बेडिङहरूले उच्च सान्दर्भिकता र शुद्धता प्रदान गर्दा तपाईंको गोपनीयता सुरक्षित गर्दछ।
मुख्य विशेषताहरु
अन-डिभाइस LLM अनुमान: क्लाउड निर्भरता बिना छिटो, निजी प्रतिक्रियाहरू; तपाईंको उपकरण र आवश्यकताहरूसँग मेल खाने मोडेलहरू छनौट गर्नुहोस्।
Retrieval-Augmented Generation (RAG): तथ्याङ्कित जवाफहरू उत्पादन गर्न अनुक्रमित कागजात टुक्राहरू र इम्बेडिङहरूसँग मोडेल तर्कलाई जोड्नुहोस्।
पर्सिस्टेन्ट ग्लोबल मेमोरी: तथ्यहरू, कागजातहरू, र ज्ञानलाई निरन्तर, डिभाइस-लोकल मेमोरी (रूम डीबी) मा लामो समयसम्म सत्रहरूमा सम्झनका लागि सुरक्षित गर्नुहोस्।
इम्बेडिङ र भेक्टर खोज: इम्बेडिङहरू उत्पन्न गर्नुहोस्, स्थानीय रूपमा अनुक्रमणिका सामग्री, र कुशल समानता खोजको साथ सबैभन्दा सान्दर्भिक कागजातहरू पुन: प्राप्त गर्नुहोस्।
मल्टिमोडल समर्थन: उपलब्ध हुँदा थप अन्तरक्रियाहरूका लागि पाठ + छवि सक्षम मोडेलहरू (Gemma-3n) प्रयोग गर्नुहोस्।
वेब खोज एकीकरण: RAG प्रश्नहरू र तत्काल जवाफहरूको लागि अप-टु-डेट जानकारी प्राप्त गर्न DuckDuckGo-संचालित वेब परिणामहरूसँग स्थानीय ज्ञानको पूर्ति गर्नुहोस्।
अफलाइन-तयार: नेटवर्क पहुँच बिना काम गर्नुहोस् — मोडेल, मेमोरी, र अनुक्रमणिकाहरू यन्त्रमा रहन्छन्।
GPU एक्सेलेरेसन (वैकल्पिक): हार्डवेयर एक्सेलेरेसनबाट फाइदा लिनुहोस् जहाँ समर्थित छ — ठूला GPU-समर्थित मोडेलहरूसँग उत्कृष्ट नतिजाहरूको लागि हामी कम्तीमा 8GB RAM भएका यन्त्रहरू सिफारिस गर्छौं।
गोपनीयता-पहिलो डिजाइन: मेमोरी, एम्बेडिङ, र आरएजी अनुक्रमणिकाहरू पूर्वनिर्धारित रूपमा स्थानीय रहन्छन्; तपाईंले स्पष्ट रूपमा डेटा साझेदारी वा निर्यात गर्न छनौट नगरेसम्म कुनै क्लाउड अपलोड हुँदैन।
लामो-सन्दर्भ ह्यान्डलिंग: ठूला सन्दर्भ विन्डोहरू भएका मोडेलहरूको लागि समर्थन ताकि सहायकले विस्तृत कागजातहरू र इतिहासहरूमा तर्क गर्न सक्छ।
विकासकर्ता-अनुकूल: निजी, अफलाइन AI आवश्यक एपहरूको लागि स्थानीय अनुमान, अनुक्रमणिका, र पुन: प्राप्ति प्रयोग-केसहरूसँग एकीकृत।
किन LLM हब छनौट गर्ने? LLM Hub मोबाइलमा निजी, सटीक र लचिलो एआई प्रदान गर्न निर्माण गरिएको हो। यसले स्थानीय अनुमानको गतिलाई पुन: प्राप्ति-आधारित प्रणालीहरूको तथ्यात्मक आधार र निरन्तर मेमोरीको सुविधासँग मर्ज गर्दछ — ज्ञान कार्यकर्ताहरू, गोपनीयता-सचेत प्रयोगकर्ताहरू, र स्थानीय-पहिलो AI सुविधाहरू निर्माण गर्ने विकासकर्ताहरूका लागि आदर्श।
समर्थित मोडेलहरू: Gemma-3, Gemma-3n (multimodal), Llama-3.2, Phi-4 Mini — तपाईंको यन्त्रको क्षमता र सन्दर्भ आवश्यकताहरूसँग मिल्ने मोडेल छान्नुहोस्।
मा अपडेट गरिएको
२०२५ सेप्टेम्बर १६