LLM Hub

500+
डाउनलोड
कॉन्टेंट रेटिंग
सभी
स्क्रीनशॉट की इमेज
स्क्रीनशॉट की इमेज
स्क्रीनशॉट की इमेज
स्क्रीनशॉट की इमेज
स्क्रीनशॉट की इमेज
स्क्रीनशॉट की इमेज
स्क्रीनशॉट की इमेज
स्क्रीनशॉट की इमेज
स्क्रीनशॉट की इमेज

इस ऐप्लिकेशन के बारे में जानकारी

एलएलएम हब आपके एंड्रॉइड डिवाइस पर सीधे उत्पादन-स्तर का एआई लाता है - जो निजी, तेज़ और पूरी तरह से स्थानीय है. इसमें आप बड़े संदर्भ विंडो, स्थायी वैश्विक मेमोरी और रिट्रीवल-ऑगमेंटेड जनरेशन (RAG) के साथ आधुनिक ऑन-डिवाइस एलएलएम (जैसे Gemma-3, Gemma-3n मल्टीमॉडल, Llama-3.2, Phi-4 Mini) चला सकते हैं. यह RAG डिवाइस पर संग्रहीत अनुक्रमित दस्तावेज़ों के आधार पर सटीक उत्तर देता है. आप दस्तावेज़ों और नोट्स के लिए एम्बेडिंग बना और सहेज सकते हैं, स्थानीय रूप से वेक्टर समानता खोज चला सकते हैं, और जब आपको ताज़ा जानकारी चाहिए तो DuckDuckGo-संचालित वेब खोज से प्रतिक्रियाओं को बेहतर बना सकते हैं. जब तक आप स्पष्ट रूप से डेटा निर्यात नहीं करते, सब कुछ आपके फ़ोन पर ही रहता है: स्थानीय मेमोरी, इंडेक्स और एम्बेडिंग आपकी गोपनीयता की रक्षा करते हुए उच्च प्रासंगिकता और सटीकता सुनिश्चित करते हैं.

मुख्य विशेषताएं

ऑन-डिवाइस एलएलएम अनुमान: क्लाउड पर निर्भरता के बिना तेज़, निजी प्रतिक्रियाएं; अपने डिवाइस और ज़रूरतों के अनुसार मॉडल चुनें.
रिट्रीवल-ऑगमेंटेड जनरेशन (RAG): अनुक्रमित दस्तावेज़ों के हिस्सों और एम्बेडिंग को मॉडल के तर्क के साथ मिलाकर तथ्य-आधारित उत्तर प्राप्त करें.
स्थायी वैश्विक मेमोरी: तथ्यों, दस्तावेज़ों और ज्ञान को एक स्थायी, डिवाइस-स्थानीय मेमोरी (Room DB) में सहेजें ताकि आप उन्हें बाद में भी याद रख सकें.
एम्बेडिंग और वेक्टर खोज: एम्बेडिंग बनाएं, सामग्री को स्थानीय रूप से अनुक्रमित करें, और कुशल समानता खोज से सबसे प्रासंगिक दस्तावेज़ों को ढूंढें.
मल्टीमॉडल समर्थन: उपलब्ध होने पर, टेक्स्ट और इमेज दोनों को समझने वाले मॉडल (Gemma-3n) का उपयोग करके बेहतर इंटरैक्शन करें.
वेब खोज एकीकरण: RAG प्रश्नों और तुरंत उत्तरों के लिए DuckDuckGo-संचालित वेब परिणामों से ताज़ा जानकारी प्राप्त करके स्थानीय ज्ञान को पूरक करें.
ऑफ़लाइन-तैयार: नेटवर्क के बिना भी काम करें - मॉडल, मेमोरी और इंडेक्स डिवाइस पर ही रहते हैं.
जीपीयू त्वरण (वैकल्पिक): जहां समर्थित हो, हार्डवेयर त्वरण का लाभ उठाएं - बड़े जीपीयू-समर्थित मॉडल के साथ सर्वोत्तम परिणामों के लिए हम कम से कम 8GB रैम वाले डिवाइस की सलाह देते हैं.
गोपनीयता-प्रथम डिज़ाइन: मेमोरी, एम्बेडिंग और RAG इंडेक्स डिफ़ॉल्ट रूप से स्थानीय रहते हैं; जब तक आप स्पष्ट रूप से डेटा साझा या निर्यात नहीं करते, क्लाउड पर कुछ भी अपलोड नहीं होता.
लंबे-संदर्भ हैंडलिंग: बड़े संदर्भ विंडो वाले मॉडल का समर्थन ताकि सहायक बड़े दस्तावेज़ों और बातचीत के इतिहास को समझ सके.
डेवलपर-अनुकूल: निजी, ऑफ़लाइन एआई की आवश्यकता वाले ऐप्स के लिए स्थानीय अनुमान, अनुक्रमण और पुनर्प्राप्ति के उपयोग-मामलों के साथ एकीकृत होता है.
एलएलएम हब क्यों चुनें? एलएलएम हब मोबाइल पर निजी, सटीक और लचीला एआई प्रदान करने के लिए बनाया गया है. यह स्थानीय अनुमान की गति को रिट्रीवल-आधारित सिस्टम के तथ्यात्मक आधार और स्थायी मेमोरी की सुविधा के साथ जोड़ता है - यह ज्ञान कार्यकर्ताओं, गोपनीयता के प्रति जागरूक उपयोगकर्ताओं और स्थानीय-प्रथम एआई सुविधाएँ बनाने वाले डेवलपर्स के लिए आदर्श है.

समर्थित मॉडल: Gemma-3, Gemma-3n (मल्टीमॉडल), Llama-3.2, Phi-4 Mini - वह मॉडल चुनें जो आपके डिवाइस की क्षमताओं और संदर्भ की ज़रूरतों के अनुकूल हो.
पिछली बार अपडेट होने की तारीख
16 सित॰ 2025

डेटा की सुरक्षा

डेटा सुरक्षा के लिहाज़ से यह जानना बेहद अहम है कि डेवलपर, आपका डेटा कैसे इकट्ठा और शेयर करते हैं. डेटा को निजी और सुरक्षित रखने के अलग-अलग तरीके हो सकते हैं. ये आपकी जगह, उम्र, और ऐप्लिकेशन के इस्तेमाल के हिसाब से तय किए जाते हैं. यह जानकारी डेवलपर से मिली है और वह समय-समय पर इसमें अपडेट भी कर सकता है.
तीसरे पक्षों के साथ कोई डेटा शेयर नहीं किया जाता
डेवलपर किस तरह से आपका डेटा शेयर करते हैं, इस बारे में ज़्यादा जानें
कोई डेटा इकट्ठा नहीं किया गया
डेवलपर किस तरह से आपका डेटा इकट्ठा करते हैं, इस बारे में ज़्यादा जानें

इसमें नया क्या है


- Phi-4 Mini Max का कॉन्टेक्स्ट विंडो 4096 तक बढ़ाया गया और GPU बैकएंड सक्षम किया गया
- मॉडल लोडिंग कॉन्फ़िग अब आपकी पिछली सेटिंग्स याद रखता है
- इतालवी अनुवाद जोड़ा गया

ऐप्लिकेशन से जुड़ी सहायता

डेवलपर के बारे में
Yuan Qian
timmyboy0623@gmail.com
33 Magdalena Place, Rowville Rowville Clayton VIC 3168 Australia
undefined

मिलते-जुलते ऐप्लिकेशन