LLM ਹੱਬ ਪ੍ਰੋਡਕਸ਼ਨ-ਗ੍ਰੇਡ AI ਨੂੰ ਸਿੱਧਾ ਤੁਹਾਡੇ Android ਡਿਵਾਈਸ 'ਤੇ ਲਿਆਉਂਦਾ ਹੈ — ਨਿੱਜੀ, ਤੇਜ਼ ਅਤੇ ਪੂਰੀ ਤਰ੍ਹਾਂ ਸਥਾਨਕ। ਆਧੁਨਿਕ ਔਨ-ਡਿਵਾਈਸ LLMs (Gemma-3, Gemma-3n ਮਲਟੀਮੋਡਲ, Llama-3.2, Phi-4 Mini) ਨੂੰ ਵੱਡੀਆਂ ਸੰਦਰਭ ਵਿੰਡੋਜ਼, ਨਿਰੰਤਰ ਗਲੋਬਲ ਮੈਮੋਰੀ, ਅਤੇ ਰੀਟ੍ਰੀਵਲ-ਐਗਮੈਂਟੇਡ ਜਨਰੇਸ਼ਨ (RAG) ਦੇ ਨਾਲ ਚਲਾਓ ਜੋ ਡਿਵਾਈਸ 'ਤੇ ਸਟੋਰ ਕੀਤੇ ਇੰਡੈਕਸਡ ਦਸਤਾਵੇਜ਼ਾਂ ਵਿੱਚ ਜਵਾਬਾਂ ਨੂੰ ਆਧਾਰ ਬਣਾਉਂਦਾ ਹੈ। ਦਸਤਾਵੇਜ਼ਾਂ ਅਤੇ ਨੋਟਸ ਲਈ ਏਮਬੈਡਿੰਗ ਬਣਾਓ ਅਤੇ ਸਟੋਰ ਕਰੋ, ਸਥਾਨਕ ਤੌਰ 'ਤੇ ਵੈਕਟਰ ਸਮਾਨਤਾ ਖੋਜ ਚਲਾਓ, ਅਤੇ ਜਦੋਂ ਤੁਹਾਨੂੰ ਲਾਈਵ ਤੱਥਾਂ ਦੀ ਲੋੜ ਹੋਵੇ ਤਾਂ DuckDuckGo ਦੁਆਰਾ ਸੰਚਾਲਿਤ ਵੈੱਬ ਖੋਜ ਨਾਲ ਜਵਾਬਾਂ ਨੂੰ ਭਰਪੂਰ ਬਣਾਓ। ਹਰ ਚੀਜ਼ ਤੁਹਾਡੇ ਫ਼ੋਨ 'ਤੇ ਉਦੋਂ ਤੱਕ ਰਹਿੰਦੀ ਹੈ ਜਦੋਂ ਤੱਕ ਤੁਸੀਂ ਸਪਸ਼ਟ ਤੌਰ 'ਤੇ ਇਸਨੂੰ ਨਿਰਯਾਤ ਨਹੀਂ ਕਰਦੇ: ਸਥਾਨਕ-ਸਿਰਫ਼ ਮੈਮੋਰੀ, ਸੂਚਕਾਂਕ, ਅਤੇ ਏਮਬੈਡਿੰਗ ਉੱਚ ਪ੍ਰਸੰਗਿਕਤਾ ਅਤੇ ਸ਼ੁੱਧਤਾ ਪ੍ਰਦਾਨ ਕਰਦੇ ਹੋਏ ਤੁਹਾਡੀ ਗੋਪਨੀਯਤਾ ਦੀ ਰੱਖਿਆ ਕਰਦੇ ਹਨ।
ਮੁੱਖ ਵਿਸ਼ੇਸ਼ਤਾਵਾਂ
ਆਨ-ਡਿਵਾਈਸ LLM ਅਨੁਮਾਨ: ਕਲਾਉਡ ਨਿਰਭਰਤਾ ਤੋਂ ਬਿਨਾਂ ਤੇਜ਼, ਨਿੱਜੀ ਜਵਾਬ; ਉਹ ਮਾਡਲ ਚੁਣੋ ਜੋ ਤੁਹਾਡੀ ਡਿਵਾਈਸ ਅਤੇ ਲੋੜਾਂ ਨਾਲ ਮੇਲ ਖਾਂਦੇ ਹਨ।
ਰੀਟ੍ਰੀਵਲ-ਔਗਮੈਂਟੇਡ ਜਨਰੇਸ਼ਨ (RAG): ਤੱਥ-ਅਧਾਰਿਤ ਜਵਾਬ ਪੈਦਾ ਕਰਨ ਲਈ ਇੰਡੈਕਸਡ ਦਸਤਾਵੇਜ਼ ਦੇ ਹਿੱਸਿਆਂ ਅਤੇ ਏਮਬੈਡਿੰਗਾਂ ਨਾਲ ਮਾਡਲ ਤਰਕ ਨੂੰ ਜੋੜੋ।
ਸਥਾਈ ਗਲੋਬਲ ਮੈਮੋਰੀ: ਸਾਰੇ ਸੈਸ਼ਨਾਂ ਵਿੱਚ ਲੰਬੇ ਸਮੇਂ ਲਈ ਯਾਦ ਕਰਨ ਲਈ ਤੱਥਾਂ, ਦਸਤਾਵੇਜ਼ਾਂ ਅਤੇ ਗਿਆਨ ਨੂੰ ਇੱਕ ਸਥਾਈ, ਡਿਵਾਈਸ-ਲੋਕਲ ਮੈਮੋਰੀ (ਰੂਮ DB) ਵਿੱਚ ਸੁਰੱਖਿਅਤ ਕਰੋ।
ਏਮਬੈਡਿੰਗਸ ਅਤੇ ਵੈਕਟਰ ਖੋਜ: ਏਮਬੈਡਿੰਗਸ ਤਿਆਰ ਕਰੋ, ਸਥਾਨਕ ਤੌਰ 'ਤੇ ਸਮੱਗਰੀ ਨੂੰ ਸੂਚਕਾਂਕ ਕਰੋ, ਅਤੇ ਕੁਸ਼ਲ ਸਮਾਨਤਾ ਖੋਜ ਦੇ ਨਾਲ ਸਭ ਤੋਂ ਢੁਕਵੇਂ ਦਸਤਾਵੇਜ਼ਾਂ ਨੂੰ ਮੁੜ ਪ੍ਰਾਪਤ ਕਰੋ।
ਮਲਟੀਮੋਡਲ ਸਪੋਰਟ: ਉਪਲਬਧ ਹੋਣ 'ਤੇ ਅਮੀਰ ਪਰਸਪਰ ਕ੍ਰਿਆਵਾਂ ਲਈ ਟੈਕਸਟ + ਚਿੱਤਰ ਸਮਰੱਥ ਮਾਡਲਾਂ (Gemma-3n) ਦੀ ਵਰਤੋਂ ਕਰੋ।
ਵੈੱਬ ਖੋਜ ਏਕੀਕਰਣ: RAG ਸਵਾਲਾਂ ਅਤੇ ਤਤਕਾਲ ਜਵਾਬਾਂ ਲਈ ਅੱਪ-ਟੂ-ਡੇਟ ਜਾਣਕਾਰੀ ਪ੍ਰਾਪਤ ਕਰਨ ਲਈ DuckDuckGo-ਸੰਚਾਲਿਤ ਵੈੱਬ ਨਤੀਜਿਆਂ ਦੇ ਨਾਲ ਸਥਾਨਕ ਗਿਆਨ ਨੂੰ ਪੂਰਕ ਕਰੋ।
ਔਫਲਾਈਨ-ਤਿਆਰ: ਨੈੱਟਵਰਕ ਪਹੁੰਚ ਤੋਂ ਬਿਨਾਂ ਕੰਮ ਕਰੋ — ਮਾਡਲ, ਮੈਮੋਰੀ, ਅਤੇ ਸੂਚਕਾਂਕ ਡਿਵਾਈਸ 'ਤੇ ਬਣੇ ਰਹਿੰਦੇ ਹਨ।
GPU ਪ੍ਰਵੇਗ (ਵਿਕਲਪਿਕ): ਹਾਰਡਵੇਅਰ ਪ੍ਰਵੇਗ ਤੋਂ ਲਾਭ ਜਿੱਥੇ ਸਮਰਥਿਤ ਹੈ — ਵੱਡੇ GPU-ਬੈਕਡ ਮਾਡਲਾਂ ਦੇ ਨਾਲ ਵਧੀਆ ਨਤੀਜਿਆਂ ਲਈ ਅਸੀਂ ਘੱਟੋ-ਘੱਟ 8GB RAM ਵਾਲੇ ਡਿਵਾਈਸਾਂ ਦੀ ਸਿਫ਼ਾਰਿਸ਼ ਕਰਦੇ ਹਾਂ।
ਗੋਪਨੀਯਤਾ-ਪਹਿਲਾ ਡਿਜ਼ਾਈਨ: ਮੈਮੋਰੀ, ਏਮਬੈਡਿੰਗ, ਅਤੇ ਆਰਏਜੀ ਸੂਚਕਾਂਕ ਮੂਲ ਰੂਪ ਵਿੱਚ ਸਥਾਨਕ ਰਹਿੰਦੇ ਹਨ; ਕੋਈ ਕਲਾਉਡ ਅਪਲੋਡ ਨਹੀਂ ਜਦੋਂ ਤੱਕ ਤੁਸੀਂ ਸਪਸ਼ਟ ਤੌਰ 'ਤੇ ਡੇਟਾ ਨੂੰ ਸਾਂਝਾ ਜਾਂ ਨਿਰਯਾਤ ਕਰਨਾ ਨਹੀਂ ਚੁਣਦੇ।
ਲੰਬੀ-ਸੰਦਰਭ ਹੈਂਡਲਿੰਗ: ਵੱਡੇ ਸੰਦਰਭ ਵਿੰਡੋਜ਼ ਵਾਲੇ ਮਾਡਲਾਂ ਲਈ ਸਮਰਥਨ ਤਾਂ ਜੋ ਸਹਾਇਕ ਵਿਆਪਕ ਦਸਤਾਵੇਜ਼ਾਂ ਅਤੇ ਇਤਿਹਾਸਾਂ 'ਤੇ ਤਰਕ ਕਰ ਸਕੇ।
ਡਿਵੈਲਪਰ-ਅਨੁਕੂਲ: ਨਿੱਜੀ, ਔਫਲਾਈਨ AI ਦੀ ਲੋੜ ਵਾਲੇ ਐਪਸ ਲਈ ਸਥਾਨਕ ਅਨੁਮਾਨ, ਇੰਡੈਕਸਿੰਗ, ਅਤੇ ਮੁੜ ਪ੍ਰਾਪਤੀ ਵਰਤੋਂ-ਕੇਸਾਂ ਨਾਲ ਏਕੀਕ੍ਰਿਤ।
LLM ਹੱਬ ਕਿਉਂ ਚੁਣੀਏ? LLM ਹੱਬ ਮੋਬਾਈਲ 'ਤੇ ਨਿੱਜੀ, ਸਟੀਕ ਅਤੇ ਲਚਕਦਾਰ AI ਪ੍ਰਦਾਨ ਕਰਨ ਲਈ ਬਣਾਇਆ ਗਿਆ ਹੈ। ਇਹ ਪੁਨਰ ਪ੍ਰਾਪਤੀ-ਅਧਾਰਿਤ ਪ੍ਰਣਾਲੀਆਂ ਦੇ ਤੱਥ ਆਧਾਰਿਤ ਅਤੇ ਨਿਰੰਤਰ ਮੈਮੋਰੀ ਦੀ ਸਹੂਲਤ ਦੇ ਨਾਲ ਸਥਾਨਕ ਅਨੁਮਾਨ ਦੀ ਗਤੀ ਨੂੰ ਮਿਲਾਉਂਦਾ ਹੈ — ਗਿਆਨ ਕਰਮਚਾਰੀਆਂ, ਗੋਪਨੀਯਤਾ ਪ੍ਰਤੀ ਚੇਤੰਨ ਉਪਭੋਗਤਾਵਾਂ, ਅਤੇ ਸਥਾਨਕ-ਪਹਿਲੀ AI ਵਿਸ਼ੇਸ਼ਤਾਵਾਂ ਬਣਾਉਣ ਵਾਲੇ ਡਿਵੈਲਪਰਾਂ ਲਈ ਆਦਰਸ਼।
ਸਮਰਥਿਤ ਮਾਡਲ: Gemma-3, Gemma-3n (ਮਲਟੀਮੋਡਲ), Llama-3.2, Phi-4 Mini — ਉਹ ਮਾਡਲ ਚੁਣੋ ਜੋ ਤੁਹਾਡੀ ਡਿਵਾਈਸ ਸਮਰੱਥਾਵਾਂ ਅਤੇ ਸੰਦਰਭ ਲੋੜਾਂ ਨੂੰ ਪੂਰਾ ਕਰਦਾ ਹੈ।
ਅੱਪਡੇਟ ਕਰਨ ਦੀ ਤਾਰੀਖ
16 ਸਤੰ 2025