एलएलएम हब आपके एंड्रॉइड डिवाइस पर सीधे उत्पादन-स्तर का एआई लाता है - जो निजी, तेज़ और पूरी तरह से स्थानीय है. इसमें आप बड़े संदर्भ विंडो, स्थायी वैश्विक मेमोरी और रिट्रीवल-ऑगमेंटेड जनरेशन (RAG) के साथ आधुनिक ऑन-डिवाइस एलएलएम (जैसे Gemma-3, Gemma-3n मल्टीमॉडल, Llama-3.2, Phi-4 Mini) चला सकते हैं. यह RAG डिवाइस पर संग्रहीत अनुक्रमित दस्तावेज़ों के आधार पर सटीक उत्तर देता है. आप दस्तावेज़ों और नोट्स के लिए एम्बेडिंग बना और सहेज सकते हैं, स्थानीय रूप से वेक्टर समानता खोज चला सकते हैं, और जब आपको ताज़ा जानकारी चाहिए तो DuckDuckGo-संचालित वेब खोज से प्रतिक्रियाओं को बेहतर बना सकते हैं. जब तक आप स्पष्ट रूप से डेटा निर्यात नहीं करते, सब कुछ आपके फ़ोन पर ही रहता है: स्थानीय मेमोरी, इंडेक्स और एम्बेडिंग आपकी गोपनीयता की रक्षा करते हुए उच्च प्रासंगिकता और सटीकता सुनिश्चित करते हैं.
मुख्य विशेषताएं
ऑन-डिवाइस एलएलएम अनुमान: क्लाउड पर निर्भरता के बिना तेज़, निजी प्रतिक्रियाएं; अपने डिवाइस और ज़रूरतों के अनुसार मॉडल चुनें.
रिट्रीवल-ऑगमेंटेड जनरेशन (RAG): अनुक्रमित दस्तावेज़ों के हिस्सों और एम्बेडिंग को मॉडल के तर्क के साथ मिलाकर तथ्य-आधारित उत्तर प्राप्त करें.
स्थायी वैश्विक मेमोरी: तथ्यों, दस्तावेज़ों और ज्ञान को एक स्थायी, डिवाइस-स्थानीय मेमोरी (Room DB) में सहेजें ताकि आप उन्हें बाद में भी याद रख सकें.
एम्बेडिंग और वेक्टर खोज: एम्बेडिंग बनाएं, सामग्री को स्थानीय रूप से अनुक्रमित करें, और कुशल समानता खोज से सबसे प्रासंगिक दस्तावेज़ों को ढूंढें.
मल्टीमॉडल समर्थन: उपलब्ध होने पर, टेक्स्ट और इमेज दोनों को समझने वाले मॉडल (Gemma-3n) का उपयोग करके बेहतर इंटरैक्शन करें.
वेब खोज एकीकरण: RAG प्रश्नों और तुरंत उत्तरों के लिए DuckDuckGo-संचालित वेब परिणामों से ताज़ा जानकारी प्राप्त करके स्थानीय ज्ञान को पूरक करें.
ऑफ़लाइन-तैयार: नेटवर्क के बिना भी काम करें - मॉडल, मेमोरी और इंडेक्स डिवाइस पर ही रहते हैं.
जीपीयू त्वरण (वैकल्पिक): जहां समर्थित हो, हार्डवेयर त्वरण का लाभ उठाएं - बड़े जीपीयू-समर्थित मॉडल के साथ सर्वोत्तम परिणामों के लिए हम कम से कम 8GB रैम वाले डिवाइस की सलाह देते हैं.
गोपनीयता-प्रथम डिज़ाइन: मेमोरी, एम्बेडिंग और RAG इंडेक्स डिफ़ॉल्ट रूप से स्थानीय रहते हैं; जब तक आप स्पष्ट रूप से डेटा साझा या निर्यात नहीं करते, क्लाउड पर कुछ भी अपलोड नहीं होता.
लंबे-संदर्भ हैंडलिंग: बड़े संदर्भ विंडो वाले मॉडल का समर्थन ताकि सहायक बड़े दस्तावेज़ों और बातचीत के इतिहास को समझ सके.
डेवलपर-अनुकूल: निजी, ऑफ़लाइन एआई की आवश्यकता वाले ऐप्स के लिए स्थानीय अनुमान, अनुक्रमण और पुनर्प्राप्ति के उपयोग-मामलों के साथ एकीकृत होता है.
एलएलएम हब क्यों चुनें? एलएलएम हब मोबाइल पर निजी, सटीक और लचीला एआई प्रदान करने के लिए बनाया गया है. यह स्थानीय अनुमान की गति को रिट्रीवल-आधारित सिस्टम के तथ्यात्मक आधार और स्थायी मेमोरी की सुविधा के साथ जोड़ता है - यह ज्ञान कार्यकर्ताओं, गोपनीयता के प्रति जागरूक उपयोगकर्ताओं और स्थानीय-प्रथम एआई सुविधाएँ बनाने वाले डेवलपर्स के लिए आदर्श है.
समर्थित मॉडल: Gemma-3, Gemma-3n (मल्टीमॉडल), Llama-3.2, Phi-4 Mini - वह मॉडल चुनें जो आपके डिवाइस की क्षमताओं और संदर्भ की ज़रूरतों के अनुकूल हो.
पिछली बार अपडेट होने की तारीख
16 सित॰ 2025