Tiny Mind : Offline Ai

Innehåller annonser
1 tn+
Nedladdningar
Innehållsklassificering
Ingen åldersgräns
Skärmdumpsbild
Skärmdumpsbild
Skärmdumpsbild
Skärmdumpsbild
Skärmdumpsbild

Om appen

🧠 Tiny AI: Local AI – Din offline GPT-assistent
Tiny AI är en kraftfull offline AI-assistent som körs direkt på din enhet - inget internet, ingen molnbearbetning och absolut ingen datadelning. Drivs av lokala GGUF-baserade modeller som TinyLlama, låter den dig uppleva kraften i generativ AI var som helst, när som helst - med full integritet och frihet.

Oavsett om du letar efter en smart assistent för att skriva, produktivitet, lära sig eller bara chatta, ger Little AI möjligheten till stora språkmodeller (LLM) till dina fingertoppar – utan att skicka någon data till externa servrar.

🚀 Nyckelfunktioner:
✅ Kör 100 % offline
Ingen internetanslutning krävs efter nedladdning av modellerna.

Dina chattar, meddelanden och data finns kvar på din enhet.

✅ Ladda ner och hantera GGUF-modeller
Välj från en mängd olika lokala modeller (t.ex. TinyLlama, Phi, Mistral).

Ladda bara ner de du vill ha.

Ta bort eller byt modell när som helst för att spara utrymme.

✅ Anpassningsbara systemuppmaningar
Stöd för systemuppmaningar i modeller som tillåter dem.

Mallar som anpassar sig utifrån modellens struktur och formateringsbehov.

✅ Smart lokal chattupplevelse
Ställ frågor, skriv e-postmeddelanden, brainstorma idéer - precis som ai chat, men lokalt.

Fungerar även i flygplansläge!

✅ Användarvänligt gränssnitt
Minimalt gränssnitt, stöd för mörkt/ljustema och avataranpassning.

Enkel introduktion för att komma igång på några sekunder.

📥 Modeller som stöds
TinyLlama 1.1B

Mistral

Phi

Andra GGUF-kompatibla modeller

Varje modell kommer i olika kvantiseringsnivåer (Q2_K, Q3_K, etc.), så att du kan balansera hastighet, noggrannhet och lagringsstorlek.

🔐 100 % integritetsfokuserad
Vi tror att din data är din egen. Little AI skickar inte dina chattar till någon server eller lagrar något i molnet. Allt händer på din telefon.

💡 Användningsfall:
✍️ Skrivhjälp (e-post, artiklar, sammanfattningar)

📚 Studiehjälp och frågesvar

🧠 Brainstorming och idéer

💬 Roliga och avslappnade samtal

📴 Offlineföljeslagare för resor eller områden med låg anslutning

📱 Tekniska höjdpunkter:
GGUF Model Loader (kompatibel med llama.cpp)

Dynamisk modellbyte och promptmall

Toast-baserade varningar om offlineanslutning

Fungerar på de flesta moderna Android-enheter (4GB RAM+ rekommenderas)

📎 Anmärkningar:
Denna app kräver ingen inloggning eller internetanslutning när modellen har laddats ner.

Vissa modeller kan kräva ett större minnesutrymme. Enheter med 6 GB+ RAM rekommenderas för smidig användning.

Fler modeller och funktioner (som röstinmatning, chatthistorik och plugin-stöd) kommer snart!

🛠️ Kategorier:
Produktivitet

Verktyg

AI Chatbot

Sekretessfokuserade verktyg

🌟 Varför välja Little AI?
Till skillnad från typiska AI-assistenter är Little AI inte beroende av molnet. Den respekterar din integritet, ger dig kontroll över din AI-miljö och fungerar var du än går – även i flygplansläge eller avlägsna områden.

Njut av kraften i AI i fickan – utan kompromisser.

Ladda ner nu och börja din offline AI-resa med Little AI!
Ingen spårning. Inga inloggningar. Inget nonsens. Bara privat, bärbar intelligens.
Uppdaterades den
25 okt. 2025

Datasäkerhet

Säkerhet börjar med förståelsen av hur utvecklare samlar in och delar din data. Praxis för dataintegritet och säkerhet varierar beroende på användning, region och ålder. Utvecklaren har tillhandahållit denna information och kan uppdatera den med tiden.
Ingen data delas med tredje part
Läs mer om hur utvecklare deklarerar delning
Ingen data samlades in
Läs mer om hur utvecklare deklarerar insamling

Nyheter

We’re excited to announce that we’ve expanded our supported AI model library with three new additions for enhanced versatility and performance.
New Models Added
Qwen2.5 1.5B Instruct
Available in multiple quantization formats (Q2_K → FP16) for diverse performance/memory trade-offs.
Llama 3.2 3B Instruct
Includes IQ, Q3, Q4, Q5, Q6, Q8, and F16 variants for flexible deployment.
Tesslate Tessa T1 3B
Wide range of quantization options from IQ2 to BF16 for optimal inference performance.