Tiny Mind : Offline Ai

Conté anuncis
100+
Baixades
Classificació del contingut
Per a tots els públics
Imatge d'una captura de pantalla
Imatge d'una captura de pantalla
Imatge d'una captura de pantalla
Imatge d'una captura de pantalla
Imatge d'una captura de pantalla

Sobre l'aplicació

🧠 Tiny AI: IA local: el teu assistent GPT fora de línia
Tiny AI és un potent assistent d'IA fora de línia que s'executa directament al vostre dispositiu: sense Internet, sense processament al núvol i sense compartir dades. Impulsat per models locals basats en GGUF com TinyLlama, us permet experimentar el poder de la IA generativa en qualsevol lloc i en qualsevol moment, amb total privadesa i llibertat.

Tant si busqueu un assistent intel·ligent per escriure, productivitat, aprendre o només xerrar, Little AI us ofereix la capacitat dels grans models de llenguatge (LLM) al vostre abast, sense enviar cap dada a servidors externs.

🚀 Característiques principals:
✅ Funciona 100% fora de línia
No cal connexió a Internet després de descarregar els models.

Els teus xats, sol·licituds i dades es mantenen completament al teu dispositiu.

✅ Descarrega i gestiona models GGUF
Trieu entre una varietat de models locals (per exemple, TinyLlama, Phi, Mistral).

Baixeu només els que vulgueu.

Suprimeix o canvia de model en qualsevol moment per estalviar espai.

✅ Indicacions del sistema personalitzables
Suport per a les indicacions del sistema en models que ho permetin.

Plantilles que s'adapten en funció de l'estructura del model i les necessitats de format.

✅ Experiència de xat local intel·ligent
Feu preguntes, escriviu correus electrònics, feu una pluja d'idees, com el xat ai, però a nivell local.

Funciona fins i tot en mode avió!

✅ Interfície fàcil d'utilitzar
Interfície d'usuari mínima, suport de temes foscos/clars i personalització d'avatars.

Incorporació senzilla per començar en qüestió de segons.

📥 Models compatibles
TinyLlama 1.1B

Mistral

Phi

Altres models compatibles amb GGUF

Cada model inclou diversos nivells de quantificació (Q2_K, Q3_K, etc.), cosa que us permet equilibrar la velocitat, la precisió i la mida d'emmagatzematge.

🔐 100% enfocat a la privadesa
Creiem que les vostres dades són pròpies. Little AI no envia els vostres xats a cap servidor ni emmagatzema res al núvol. Tot passa al teu telèfon.

💡 Casos d'ús:
✍️ Ajuda per a la redacció (correu electrònic, articles, resums)

📚 Ajuda per a l'estudi i resposta a preguntes

🧠 Pluja d'idees i ideació

💬 Converses divertides i informals

📴 Acompanyant fora de línia per a viatges o zones de poca connectivitat

📱 Aspectes tecnològics:
Carregador de models GGUF (compatible amb llama.cpp)

Canvi de model dinàmic i plantilla ràpida

Alertes de connectivitat fora de línia basades en brindis

Funciona amb la majoria de dispositius Android moderns (es recomana 4 GB de RAM o més)

📎 Notes:
Aquesta aplicació no requereix cap inici de sessió o connexió a Internet un cop descarregat el model.

Alguns models poden requerir una empremta de memòria més gran. Es recomanen dispositius amb més de 6 GB de RAM per a un ús fluid.

Aviat arribaran més models i funcions (com ara l'entrada de veu, l'historial de xat i el suport de connectors).

🛠️ Categories:
Productivitat

Eines

AI Chatbot

Utilitats centrades en la privadesa

🌟 Per què triar Little AI?
A diferència dels assistents d'IA típics, Little AI no depèn del núvol. Respecta la teva privadesa, et dóna control sobre el teu entorn d'IA i funciona allà on vagis, fins i tot en mode avió o zones remotes.

Gaudeix del poder de la IA a la butxaca, sense compromís.

Baixeu-vos ara i comenceu el vostre viatge en IA fora de línia amb Little AI!
Sense seguiment. Sense inicis de sessió. Sense tonteries. Només intel·ligència privada i portàtil.
Data d'actualització:
11 d’ag. 2025

Seguretat de les dades

La seguretat comença per entendre com els desenvolupadors recullen i comparteixen les teves dades. Les pràctiques de privadesa i seguretat de les dades poden variar segons l'ús que es fa de l'aplicació, la regió i l'edat. El desenvolupador ha proporcionat aquesta informació i és possible que l'actualitzi al llarg del temps.
No es comparteixen dades amb tercers
Més informació sobre com els desenvolupadors declaren la compartició de dades
No es recullen dades
Més informació sobre com els desenvolupadors declaren la recollida de dades

Novetats

We’re excited to announce that we’ve expanded our supported AI model library with three new additions for enhanced versatility and performance.
New Models Added
Qwen2.5 1.5B Instruct
Available in multiple quantization formats (Q2_K → FP16) for diverse performance/memory trade-offs.
Llama 3.2 3B Instruct
Includes IQ, Q3, Q4, Q5, Q6, Q8, and F16 variants for flexible deployment.
Tesslate Tessa T1 3B
Wide range of quantization options from IQ2 to BF16 for optimal inference performance.