LLM হাব সরাসরি আপনার Android ডিভাইসে প্রোডাকশন-গ্রেড AI নিয়ে আসে — ব্যক্তিগত, দ্রুত এবং সম্পূর্ণ স্থানীয়। বৃহৎ কনটেক্সট উইন্ডো, ক্রমাগত গ্লোবাল মেমরি এবং পুনরুদ্ধার-অগমেন্টেড জেনারেশন (RAG) সহ আধুনিক অন-ডিভাইস LLMs (Gemma-3, Gemma-3n মাল্টিমোডাল, Llama-3.2, Phi-4 Mini) চালান যা ডিভাইসে সংরক্ষিত সূচিবদ্ধ নথিতে উত্তরগুলিকে ভিত্তি করে। নথি এবং নোটগুলির জন্য এম্বেডিং তৈরি করুন এবং সঞ্চয় করুন, স্থানীয়ভাবে ভেক্টর সাদৃশ্য অনুসন্ধান চালান, এবং যখন আপনার লাইভ তথ্যের প্রয়োজন হয় তখন DuckDuckGo-চালিত ওয়েব অনুসন্ধানের মাধ্যমে প্রতিক্রিয়াগুলিকে সমৃদ্ধ করুন৷ আপনি স্পষ্টভাবে রপ্তানি না করা পর্যন্ত গুরুত্বপূর্ণ সবকিছুই আপনার ফোনে থাকে: উচ্চ প্রাসঙ্গিকতা এবং নির্ভুলতা প্রদান করার সময় শুধুমাত্র স্থানীয় মেমরি, সূচী এবং এম্বেডিং আপনার গোপনীয়তা রক্ষা করে।
মূল বৈশিষ্ট্য
অন-ডিভাইস এলএলএম অনুমান: ক্লাউড নির্ভরতা ছাড়াই দ্রুত, ব্যক্তিগত প্রতিক্রিয়া; আপনার ডিভাইস এবং প্রয়োজনের সাথে মেলে এমন মডেলগুলি বেছে নিন।
পুনরুদ্ধার-অগমেন্টেড জেনারেশন (RAG): তথ্য-ভিত্তিক উত্তর তৈরি করতে সূচীকৃত নথির অংশ এবং এমবেডিংয়ের সাথে মডেল যুক্তি একত্রিত করুন।
স্থায়ী গ্লোবাল মেমরি: সমস্ত সেশন জুড়ে দীর্ঘমেয়াদী স্মরণের জন্য একটি স্থায়ী, ডিভাইস-স্থানীয় মেমরিতে (রুম ডিবি) তথ্য, নথি এবং জ্ঞান সংরক্ষণ করুন।
এম্বেডিং এবং ভেক্টর অনুসন্ধান: এম্বেডিং তৈরি করুন, স্থানীয়ভাবে বিষয়বস্তু সূচী করুন এবং দক্ষ মিল অনুসন্ধানের সাথে সবচেয়ে প্রাসঙ্গিক নথিগুলি পুনরুদ্ধার করুন৷
মাল্টিমোডাল সাপোর্ট: যখন পাওয়া যায় তখন আরও সমৃদ্ধ ইন্টারঅ্যাকশনের জন্য টেক্সট + ইমেজ সক্ষম মডেল ব্যবহার করুন (Gemma-3n)।
ওয়েব অনুসন্ধান ইন্টিগ্রেশন: RAG প্রশ্ন এবং তাত্ক্ষণিক উত্তরগুলির জন্য আপ-টু-ডেট তথ্য আনতে DuckDuckGo-চালিত ওয়েব ফলাফলের সাথে স্থানীয় জ্ঞানের পরিপূরক।
অফলাইন-প্রস্তুত: নেটওয়ার্ক অ্যাক্সেস ছাড়াই কাজ করুন — মডেল, মেমরি, এবং সূচীগুলি ডিভাইসে টিকে থাকে।
GPU ত্বরণ (ঐচ্ছিক): যেখানে সমর্থিত হার্ডওয়্যার ত্বরণ থেকে সুবিধা নিন — বড় GPU-সমর্থিত মডেলগুলির সাথে সেরা ফলাফলের জন্য আমরা কমপক্ষে 8GB RAM সহ ডিভাইসগুলির সুপারিশ করি৷
গোপনীয়তা-প্রথম ডিজাইন: মেমরি, এম্বেডিং এবং আরএজি সূচীগুলি ডিফল্টরূপে স্থানীয় থাকে; কোনো ক্লাউড আপলোড করা যাবে না যদি না আপনি স্পষ্টভাবে ডেটা শেয়ার বা এক্সপোর্ট করতে চান।
লং-কনটেক্সট হ্যান্ডলিং: বড় কনটেক্সট উইন্ডো সহ মডেলগুলির জন্য সমর্থন যাতে সহকারী বিস্তৃত নথি এবং ইতিহাসের উপর যুক্তি দিতে পারে।
বিকাশকারী-বান্ধব: ব্যক্তিগত, অফলাইন এআই প্রয়োজন এমন অ্যাপগুলির জন্য স্থানীয় অনুমান, সূচীকরণ এবং পুনরুদ্ধারের ব্যবহার-ক্ষেত্রগুলির সাথে একীভূত করে৷
কেন LLM হাব নির্বাচন করবেন? এলএলএম হাব মোবাইলে ব্যক্তিগত, নির্ভুল এবং নমনীয় এআই সরবরাহ করার জন্য তৈরি করা হয়েছে। এটি স্থানীয় অনুমানের গতিকে পুনরুদ্ধার-ভিত্তিক সিস্টেমের বাস্তব ভিত্তি এবং অবিরাম মেমরির সুবিধার সাথে একত্রিত করে — জ্ঞান কর্মীদের, গোপনীয়তা-সচেতন ব্যবহারকারী এবং স্থানীয়-প্রথম AI বৈশিষ্ট্যগুলি তৈরিকারী বিকাশকারীদের জন্য আদর্শ।
সমর্থিত মডেল: Gemma-3, Gemma-3n (মাল্টিমোডাল), Llama-3.2, Phi-4 Mini — এমন মডেল বেছে নিন যা আপনার ডিভাইসের ক্ষমতা এবং প্রসঙ্গ প্রয়োজনের সাথে মানানসই।
আপডেট করা হয়েছে
১৬ সেপ, ২০২৫