LLM ഹബ് നിങ്ങളുടെ Android ഉപകരണത്തിലേക്ക് നേരിട്ട് പ്രൊഡക്ഷൻ-ഗ്രേഡ് AI കൊണ്ടുവരുന്നു - സ്വകാര്യവും വേഗതയേറിയതും പൂർണ്ണമായും പ്രാദേശികവും. ഉപകരണത്തിൽ സംഭരിച്ചിരിക്കുന്ന ഇൻഡെക്സ് ചെയ്ത ഡോക്യുമെൻ്റുകളിൽ ഉത്തരങ്ങൾ നൽകുന്ന വലിയ സന്ദർഭ വിൻഡോകൾ, സ്ഥിരമായ ആഗോള മെമ്മറി, വീണ്ടെടുക്കൽ-ഓഗ്മെൻ്റഡ് ജനറേഷൻ (RAG) എന്നിവ ഉപയോഗിച്ച് ആധുനിക ഉപകരണത്തിലെ LLM-കൾ (Gemma-3, Gemma-3n മൾട്ടിമോഡൽ, Llama-3.2, Phi-4 Mini) പ്രവർത്തിപ്പിക്കുക. ഡോക്യുമെൻ്റുകൾക്കും കുറിപ്പുകൾക്കുമായി ഉൾച്ചേർക്കലുകൾ സൃഷ്ടിക്കുകയും സംഭരിക്കുകയും ചെയ്യുക, പ്രാദേശികമായി വെക്റ്റർ സമാനത തിരയൽ പ്രവർത്തിപ്പിക്കുക, നിങ്ങൾക്ക് തത്സമയ വസ്തുതകൾ ആവശ്യമുള്ളപ്പോൾ DuckDuckGo-പവർ വെബ് തിരയൽ ഉപയോഗിച്ച് പ്രതികരണങ്ങൾ സമ്പുഷ്ടമാക്കുക. നിങ്ങൾ സ്പഷ്ടമായി എക്സ്പോർട്ട് ചെയ്തില്ലെങ്കിൽ പ്രധാനപ്പെട്ടതെല്ലാം നിങ്ങളുടെ ഫോണിൽ നിലനിൽക്കും: പ്രാദേശിക-മാത്രം മെമ്മറി, സൂചികകൾ, ഉൾച്ചേർക്കലുകൾ എന്നിവ ഉയർന്ന പ്രസക്തിയും കൃത്യതയും നൽകിക്കൊണ്ട് നിങ്ങളുടെ സ്വകാര്യതയെ സംരക്ഷിക്കുന്നു.
പ്രധാന സവിശേഷതകൾ
ഉപകരണത്തിൽ LLM അനുമാനം: ക്ലൗഡ് ഡിപൻഡൻസി ഇല്ലാതെ വേഗതയേറിയതും സ്വകാര്യവുമായ പ്രതികരണങ്ങൾ; നിങ്ങളുടെ ഉപകരണവും ആവശ്യങ്ങളുമായി പൊരുത്തപ്പെടുന്ന മോഡലുകൾ തിരഞ്ഞെടുക്കുക.
വീണ്ടെടുക്കൽ-ഓഗ്മെൻ്റഡ് ജനറേഷൻ (RAG): ഇൻഡെക്സ് ചെയ്ത ഡോക്യുമെൻ്റ് ചങ്കുകളും എംബെഡ്ഡിംഗുകളും ഉപയോഗിച്ച് മോഡൽ ന്യായവാദം സംയോജിപ്പിച്ച് വസ്തുത അടിസ്ഥാനമാക്കിയുള്ള ഉത്തരങ്ങൾ നിർമ്മിക്കുക.
പെർസിസ്റ്റൻ്റ് ഗ്ലോബൽ മെമ്മറി: സെഷനുകളിലുടനീളമുള്ള ദീർഘകാല തിരിച്ചുവിളിക്കലിനായി വസ്തുതകളും പ്രമാണങ്ങളും അറിവും സ്ഥിരമായ, ഉപകരണ-ലോക്കൽ മെമ്മറിയിലേക്ക് (റൂം ഡിബി) സംരക്ഷിക്കുക.
എംബെഡിംഗുകളും വെക്ടർ തിരയലും: എംബെഡ്ഡിംഗുകളും ഇൻഡെക്സ് ഉള്ളടക്കവും പ്രാദേശികമായി സൃഷ്ടിക്കുക, കാര്യക്ഷമമായ സമാനത തിരയൽ ഉപയോഗിച്ച് ഏറ്റവും പ്രസക്തമായ ഡോക്യുമെൻ്റുകൾ വീണ്ടെടുക്കുക.
മൾട്ടിമോഡൽ പിന്തുണ: ലഭ്യമാകുമ്പോൾ സമ്പന്നമായ ഇടപെടലുകൾക്കായി ടെക്സ്റ്റ് + ഇമേജ് ശേഷിയുള്ള മോഡലുകൾ (ജെമ്മ-3n) ഉപയോഗിക്കുക.
വെബ് തിരയൽ സംയോജനം: RAG ചോദ്യങ്ങൾക്കും തൽക്ഷണ ഉത്തരങ്ങൾക്കുമായി കാലികമായ വിവരങ്ങൾ ലഭ്യമാക്കുന്നതിന് DuckDuckGo-പവർ ചെയ്യുന്ന വെബ് ഫലങ്ങൾ ഉപയോഗിച്ച് പ്രാദേശിക അറിവ് കൂട്ടിച്ചേർക്കുക.
ഓഫ്ലൈൻ-റെഡി: നെറ്റ്വർക്ക് ആക്സസ് ഇല്ലാതെ പ്രവർത്തിക്കുക - മോഡലുകൾ, മെമ്മറി, സൂചികകൾ എന്നിവ ഉപകരണത്തിൽ നിലനിൽക്കും.
ജിപിയു ആക്സിലറേഷൻ (ഓപ്ഷണൽ): പിന്തുണയ്ക്കുന്ന ഹാർഡ്വെയർ ആക്സിലറേഷനിൽ നിന്ന് പ്രയോജനം നേടുക - വലിയ ജിപിയു പിന്തുണയുള്ള മോഡലുകൾക്കൊപ്പം മികച്ച ഫലങ്ങൾക്കായി, കുറഞ്ഞത് 8 ജിബി റാം ഉള്ള ഉപകരണങ്ങൾ ഞങ്ങൾ ശുപാർശ ചെയ്യുന്നു.
സ്വകാര്യത-ആദ്യ രൂപകൽപ്പന: മെമ്മറി, എംബെഡിംഗുകൾ, RAG സൂചികകൾ എന്നിവ സ്ഥിരസ്ഥിതിയായി പ്രാദേശികമായി തുടരും; ഡാറ്റ പങ്കിടാനോ കയറ്റുമതി ചെയ്യാനോ നിങ്ങൾ വ്യക്തമായി തിരഞ്ഞെടുക്കുന്നില്ലെങ്കിൽ ക്ലൗഡ് അപ്ലോഡ് ഇല്ല.
ദൈർഘ്യമേറിയ സന്ദർഭം കൈകാര്യം ചെയ്യൽ: വലിയ സന്ദർഭ ജാലകങ്ങളുള്ള മോഡലുകൾക്കുള്ള പിന്തുണ, അതിനാൽ അസിസ്റ്റൻ്റിന് വിപുലമായ രേഖകളെയും ചരിത്രങ്ങളെയും കുറിച്ച് ന്യായവാദം ചെയ്യാൻ കഴിയും.
ഡെവലപ്പർ-ഫ്രണ്ട്ലി: സ്വകാര്യ, ഓഫ്ലൈൻ AI ആവശ്യമുള്ള ആപ്പുകൾക്കായുള്ള പ്രാദേശിക അനുമാനം, ഇൻഡെക്സിംഗ്, വീണ്ടെടുക്കൽ ഉപയോഗ-കേസുകൾ എന്നിവയുമായി സംയോജിപ്പിക്കുന്നു.
എന്തുകൊണ്ടാണ് LLM ഹബ് തിരഞ്ഞെടുക്കുന്നത്? മൊബൈലിൽ സ്വകാര്യവും കൃത്യവും വഴക്കമുള്ളതുമായ AI ലഭ്യമാക്കുന്നതിനാണ് LLM ഹബ് നിർമ്മിച്ചിരിക്കുന്നത്. ഇത് പ്രാദേശിക അനുമാനത്തിൻ്റെ വേഗതയെ വീണ്ടെടുക്കൽ അധിഷ്ഠിത സിസ്റ്റങ്ങളുടെ വസ്തുതാപരമായ ഗ്രൗണ്ടിംഗും സ്ഥിരമായ മെമ്മറിയുടെ സൗകര്യവുമായി ലയിപ്പിക്കുന്നു - വിജ്ഞാന പ്രവർത്തകർക്കും സ്വകാര്യത ബോധമുള്ള ഉപയോക്താക്കൾക്കും പ്രാദേശിക-ആദ്യ AI സവിശേഷതകൾ നിർമ്മിക്കുന്ന ഡെവലപ്പർമാർക്കും അനുയോജ്യമാണ്.
പിന്തുണയ്ക്കുന്ന മോഡലുകൾ: Gemma-3, Gemma-3n (multimodal), Llama-3.2, Phi-4 Mini — നിങ്ങളുടെ ഉപകരണത്തിൻ്റെ കഴിവുകൾക്കും സന്ദർഭ ആവശ്യങ്ങൾക്കും അനുയോജ്യമായ മോഡൽ തിരഞ്ഞെടുക്കുക.
അപ്ഡേറ്റ് ചെയ്ത തീയതി
2025, സെപ്റ്റം 16