LLM ಹಬ್ ನಿಮ್ಮ Android ಸಾಧನಕ್ಕೆ ನೇರವಾಗಿ ಪ್ರೊಡಕ್ಷನ್-ಗ್ರೇಡ್ AI ಅನ್ನು ತರುತ್ತದೆ - ಖಾಸಗಿ, ವೇಗದ ಮತ್ತು ಸಂಪೂರ್ಣ ಸ್ಥಳೀಯ. ಆಧುನಿಕ ಆನ್-ಡಿವೈಸ್ LLM ಗಳನ್ನು (Gemma-3, Gemma-3n ಮಲ್ಟಿಮೋಡಲ್, Llama-3.2, Phi-4 Mini) ರನ್ ಮಾಡಿ ದೊಡ್ಡ ಸನ್ನಿವೇಶ ವಿಂಡೋಗಳು, ನಿರಂತರ ಜಾಗತಿಕ ಮೆಮೊರಿ ಮತ್ತು ಮರುಪಡೆಯುವಿಕೆ-ವರ್ಧಿತ ಜನರೇಷನ್ (RAG) ಇದು ಸಾಧನದಲ್ಲಿ ಸಂಗ್ರಹಿಸಲಾದ ಸೂಚ್ಯಂಕ ದಾಖಲೆಗಳಲ್ಲಿ ಉತ್ತರಗಳನ್ನು ಆಧಾರವಾಗಿಸುತ್ತದೆ. ಡಾಕ್ಯುಮೆಂಟ್ಗಳು ಮತ್ತು ಟಿಪ್ಪಣಿಗಳಿಗಾಗಿ ಎಂಬೆಡಿಂಗ್ಗಳನ್ನು ರಚಿಸಿ ಮತ್ತು ಸಂಗ್ರಹಿಸಿ, ಸ್ಥಳೀಯವಾಗಿ ವೆಕ್ಟರ್ ಹೋಲಿಕೆ ಹುಡುಕಾಟವನ್ನು ರನ್ ಮಾಡಿ ಮತ್ತು ನಿಮಗೆ ಲೈವ್ ಫ್ಯಾಕ್ಟ್ಗಳ ಅಗತ್ಯವಿರುವಾಗ DuckDuckGo-ಚಾಲಿತ ವೆಬ್ ಹುಡುಕಾಟದೊಂದಿಗೆ ಪ್ರತಿಕ್ರಿಯೆಗಳನ್ನು ಉತ್ಕೃಷ್ಟಗೊಳಿಸಿ. ನೀವು ಸ್ಪಷ್ಟವಾಗಿ ರಫ್ತು ಮಾಡದ ಹೊರತು ನಿಮ್ಮ ಫೋನ್ನಲ್ಲಿ ಪ್ರಮುಖವಾದ ಎಲ್ಲವೂ ಉಳಿಯುತ್ತದೆ: ಸ್ಥಳೀಯ-ಮಾತ್ರ ಮೆಮೊರಿ, ಸೂಚಿಕೆಗಳು ಮತ್ತು ಎಂಬೆಡಿಂಗ್ಗಳು ಹೆಚ್ಚಿನ ಪ್ರಸ್ತುತತೆ ಮತ್ತು ನಿಖರತೆಯನ್ನು ತಲುಪಿಸುವಾಗ ನಿಮ್ಮ ಗೌಪ್ಯತೆಯನ್ನು ರಕ್ಷಿಸುತ್ತವೆ.
ಪ್ರಮುಖ ಲಕ್ಷಣಗಳು
ಆನ್-ಡಿವೈಸ್ LLM ತೀರ್ಮಾನ: ಕ್ಲೌಡ್ ಅವಲಂಬನೆ ಇಲ್ಲದೆ ವೇಗದ, ಖಾಸಗಿ ಪ್ರತಿಕ್ರಿಯೆಗಳು; ನಿಮ್ಮ ಸಾಧನ ಮತ್ತು ಅಗತ್ಯಗಳಿಗೆ ಹೊಂದಿಕೆಯಾಗುವ ಮಾದರಿಗಳನ್ನು ಆಯ್ಕೆಮಾಡಿ.
ಮರುಪಡೆಯುವಿಕೆ-ವರ್ಧಿತ ಜನರೇಷನ್ (RAG): ವಾಸ್ತವವಾಗಿ-ಆಧಾರಿತ ಉತ್ತರಗಳನ್ನು ಉತ್ಪಾದಿಸಲು ಸೂಚ್ಯಂಕದ ಡಾಕ್ಯುಮೆಂಟ್ ಭಾಗಗಳು ಮತ್ತು ಎಂಬೆಡಿಂಗ್ಗಳೊಂದಿಗೆ ಮಾದರಿ ತಾರ್ಕಿಕತೆಯನ್ನು ಸಂಯೋಜಿಸಿ.
ನಿರಂತರ ಗ್ಲೋಬಲ್ ಮೆಮೊರಿ: ಸೆಷನ್ಗಳಾದ್ಯಂತ ದೀರ್ಘಾವಧಿಯ ಮರುಸ್ಥಾಪನೆಗಾಗಿ ನಿರಂತರ, ಸಾಧನ-ಸ್ಥಳೀಯ ಮೆಮೊರಿಗೆ (ರೂಮ್ ಡಿಬಿ) ಸತ್ಯಗಳು, ದಾಖಲೆಗಳು ಮತ್ತು ಜ್ಞಾನವನ್ನು ಉಳಿಸಿ.
ಎಂಬೆಡಿಂಗ್ಗಳು ಮತ್ತು ವೆಕ್ಟರ್ ಹುಡುಕಾಟ: ಎಂಬೆಡಿಂಗ್ಗಳನ್ನು ರಚಿಸಿ, ಸ್ಥಳೀಯವಾಗಿ ಸೂಚ್ಯಂಕ ವಿಷಯ, ಮತ್ತು ಸಮರ್ಥ ಹೋಲಿಕೆಯ ಹುಡುಕಾಟದೊಂದಿಗೆ ಹೆಚ್ಚು ಸೂಕ್ತವಾದ ದಾಖಲೆಗಳನ್ನು ಹಿಂಪಡೆಯಿರಿ.
ಮಲ್ಟಿಮೋಡಲ್ ಬೆಂಬಲ: ಲಭ್ಯವಿರುವಾಗ ಉತ್ಕೃಷ್ಟ ಸಂವಹನಗಳಿಗಾಗಿ ಪಠ್ಯ + ಇಮೇಜ್ ಸಾಮರ್ಥ್ಯದ ಮಾದರಿಗಳನ್ನು (Gemma-3n) ಬಳಸಿ.
ವೆಬ್ ಹುಡುಕಾಟ ಏಕೀಕರಣ: RAG ಪ್ರಶ್ನೆಗಳು ಮತ್ತು ತ್ವರಿತ ಉತ್ತರಗಳಿಗಾಗಿ ನವೀಕೃತ ಮಾಹಿತಿಯನ್ನು ಪಡೆಯಲು DuckDuckGo-ಚಾಲಿತ ವೆಬ್ ಫಲಿತಾಂಶಗಳೊಂದಿಗೆ ಸ್ಥಳೀಯ ಜ್ಞಾನವನ್ನು ಪೂರಕಗೊಳಿಸಿ.
ಆಫ್ಲೈನ್-ಸಿದ್ಧ: ನೆಟ್ವರ್ಕ್ ಪ್ರವೇಶವಿಲ್ಲದೆ ಕೆಲಸ ಮಾಡಿ - ಮಾದರಿಗಳು, ಮೆಮೊರಿ ಮತ್ತು ಇಂಡೆಕ್ಸ್ಗಳು ಸಾಧನದಲ್ಲಿ ಮುಂದುವರಿಯುತ್ತವೆ.
GPU ವೇಗವರ್ಧನೆ (ಐಚ್ಛಿಕ): ಬೆಂಬಲಿತ ಹಾರ್ಡ್ವೇರ್ ವೇಗವರ್ಧನೆಯ ಪ್ರಯೋಜನ - ದೊಡ್ಡ GPU-ಬೆಂಬಲಿತ ಮಾದರಿಗಳೊಂದಿಗೆ ಉತ್ತಮ ಫಲಿತಾಂಶಗಳಿಗಾಗಿ ನಾವು ಕನಿಷ್ಟ 8GB RAM ಹೊಂದಿರುವ ಸಾಧನಗಳನ್ನು ಶಿಫಾರಸು ಮಾಡುತ್ತೇವೆ.
ಗೌಪ್ಯತೆ-ಮೊದಲ ವಿನ್ಯಾಸ: ಮೆಮೊರಿ, ಎಂಬೆಡಿಂಗ್ಗಳು ಮತ್ತು RAG ಸೂಚಿಕೆಗಳು ಪೂರ್ವನಿಯೋಜಿತವಾಗಿ ಸ್ಥಳೀಯವಾಗಿರುತ್ತವೆ; ಡೇಟಾವನ್ನು ಹಂಚಿಕೊಳ್ಳಲು ಅಥವಾ ರಫ್ತು ಮಾಡಲು ನೀವು ಸ್ಪಷ್ಟವಾಗಿ ಆಯ್ಕೆ ಮಾಡದ ಹೊರತು ಯಾವುದೇ ಕ್ಲೌಡ್ ಅಪ್ಲೋಡ್ ಇಲ್ಲ.
ದೀರ್ಘ-ಸಂದರ್ಭ ನಿರ್ವಹಣೆ: ದೊಡ್ಡ ಕಾಂಟೆಕ್ಸ್ಟ್ ವಿಂಡೋಗಳನ್ನು ಹೊಂದಿರುವ ಮಾದರಿಗಳಿಗೆ ಬೆಂಬಲ ಆದ್ದರಿಂದ ಸಹಾಯಕವು ವ್ಯಾಪಕವಾದ ದಾಖಲೆಗಳು ಮತ್ತು ಇತಿಹಾಸಗಳ ಬಗ್ಗೆ ತರ್ಕಿಸಬಹುದು.
ಡೆವಲಪರ್-ಸ್ನೇಹಿ: ಖಾಸಗಿ, ಆಫ್ಲೈನ್ AI ಅಗತ್ಯವಿರುವ ಅಪ್ಲಿಕೇಶನ್ಗಳಿಗಾಗಿ ಸ್ಥಳೀಯ ತೀರ್ಮಾನ, ಇಂಡೆಕ್ಸಿಂಗ್ ಮತ್ತು ಮರುಪಡೆಯುವಿಕೆ ಬಳಕೆಯ ಪ್ರಕರಣಗಳೊಂದಿಗೆ ಸಂಯೋಜಿಸುತ್ತದೆ.
LLM ಹಬ್ ಅನ್ನು ಏಕೆ ಆರಿಸಬೇಕು? LLM ಹಬ್ ಅನ್ನು ಮೊಬೈಲ್ನಲ್ಲಿ ಖಾಸಗಿ, ನಿಖರ ಮತ್ತು ಹೊಂದಿಕೊಳ್ಳುವ AI ಅನ್ನು ತಲುಪಿಸಲು ನಿರ್ಮಿಸಲಾಗಿದೆ. ಇದು ಸ್ಥಳೀಯ ನಿರ್ಣಯದ ವೇಗವನ್ನು ಮರುಪಡೆಯುವಿಕೆ-ಆಧಾರಿತ ಸಿಸ್ಟಮ್ಗಳ ವಾಸ್ತವಿಕ ಗ್ರೌಂಡಿಂಗ್ನೊಂದಿಗೆ ವಿಲೀನಗೊಳಿಸುತ್ತದೆ ಮತ್ತು ನಿರಂತರ ಸ್ಮರಣೆಯ ಅನುಕೂಲತೆ - ಜ್ಞಾನದ ಕೆಲಸಗಾರರು, ಗೌಪ್ಯತೆ-ಪ್ರಜ್ಞೆಯ ಬಳಕೆದಾರರು ಮತ್ತು ಡೆವಲಪರ್ಗಳಿಗೆ ಸ್ಥಳೀಯ-ಮೊದಲ AI ವೈಶಿಷ್ಟ್ಯಗಳನ್ನು ನಿರ್ಮಿಸಲು ಸೂಕ್ತವಾಗಿದೆ.
ಬೆಂಬಲಿತ ಮಾದರಿಗಳು: Gemma-3, Gemma-3n (ಮಲ್ಟಿಮೋಡಲ್), Llama-3.2, Phi-4 Mini — ನಿಮ್ಮ ಸಾಧನದ ಸಾಮರ್ಥ್ಯಗಳು ಮತ್ತು ಸಂದರ್ಭದ ಅಗತ್ಯಗಳಿಗೆ ಸರಿಹೊಂದುವ ಮಾದರಿಯನ್ನು ಆಯ್ಕೆಮಾಡಿ.
ಅಪ್ಡೇಟ್ ದಿನಾಂಕ
ಸೆಪ್ಟೆಂ 16, 2025