Tiny Mind : Offline Ai

Indeholder annoncer
1 t+
Downloads
Indholdsklassificering
Alle
Screenshot
Screenshot
Screenshot
Screenshot
Screenshot

Om denne app

🧠 Tiny AI: Local AI – Din offline GPT-assistent
Tiny AI er en kraftfuld offline AI-assistent, der kører direkte på din enhed - intet internet, ingen cloud-behandling og absolut ingen datadeling. Drevet af lokale GGUF-baserede modeller som TinyLlama, giver det dig mulighed for at opleve kraften i generativ AI hvor som helst og når som helst - med fuld privatliv og frihed.

Uanset om du leder efter en smart assistent til at skrive, produktivitet, lære eller bare chatte, bringer Little AI muligheden for store sprogmodeller (LLM'er) til fingerspidserne - uden at sende nogen data til eksterne servere.

🚀 Nøglefunktioner:
✅ Kører 100 % offline
Der kræves ingen internetforbindelse efter at have downloadet modellerne.

Dine chats, prompter og data forbliver fuldt ud på din enhed.

✅ Download og administrer GGUF-modeller
Vælg mellem en række lokale modeller (f.eks. TinyLlama, Phi, Mistral).

Download kun dem, du ønsker.

Slet eller skift model når som helst for at spare plads.

✅ Tilpasbare systemprompter
Understøttelse af systemprompter i modeller, der tillader dem.

Skabeloner, der tilpasser sig ud fra modellens struktur og formateringsbehov.

✅ Smart lokal chatoplevelse
Stil spørgsmål, skriv e-mails, brainstorm ideer - ligesom ai chat, men lokalt.

Virker selv i flytilstand!

✅ Brugervenlig grænseflade
Minimal brugergrænseflade, understøttelse af mørkt/lys tema og avatartilpasning.

Enkel onboarding for at komme i gang på få sekunder.

📥 Understøttede modeller
TinyLlama 1.1B

Mistral

Phi

Andre GGUF-kompatible modeller

Hver model kommer i forskellige kvantiseringsniveauer (Q2_K, Q3_K osv.), så du kan balancere hastighed, nøjagtighed og lagerstørrelse.

🔐 100 % privatlivsfokuseret
Vi mener, at dine data er dine egne. Lille AI sender ikke dine chats til nogen server eller gemmer noget i skyen. Alt sker på din telefon.

💡 Brugssager:
✍️ Skrivehjælp (e-mails, artikler, resuméer)

📚 Studiehjælp og besvarelse af spørgsmål

🧠 Brainstorming og idéer

💬 Sjove og afslappede samtaler

📴 Offline-ledsager til rejser eller områder med lav forbindelse

📱 Tekniske højdepunkter:
GGUF Model Loader (kompatibel med llama.cpp)

Dynamisk modelskift og prompt skabelon

Toast-baserede advarsler om offlineforbindelse

Fungerer på de fleste moderne Android-enheder (4GB RAM+ anbefales)

📎 Bemærkninger:
Denne app kræver ikke noget login eller internetforbindelse, når først modellen er downloadet.

Nogle modeller kræver muligvis et større hukommelsesfodaftryk. Enheder med 6 GB+ RAM anbefales til jævn brug.

Flere modeller og funktioner (såsom stemmeinput, chathistorik og plugin-support) kommer snart!

🛠️ Kategorier:
Produktivitet

Værktøjer

AI Chatbot

Privatlivsfokuserede hjælpeprogrammer

🌟 Hvorfor vælge Little AI?
I modsætning til typiske AI-assistenter er Little AI ikke afhængig af skyen. Det respekterer dit privatliv, giver dig kontrol over dit AI-miljø og fungerer, uanset hvor du går - selv i flytilstand eller fjerntliggende områder.

Nyd AI-kraften i lommen – uden at gå på kompromis.

Download nu og start din offline AI-rejse med Little AI!
Ingen sporing. Ingen logins. Ikke noget pjat. Kun privat, bærbar intelligens.
Opdateret
25. okt. 2025

Datasikkerhed

For at du kan beskytte dine data, er det vigtigt at sætte sig ind i, hvordan udviklere indsamler og deler disse data. Databeskyttelses- og sikkerhedsprocedurer kan variere afhængigt af din brug, din region og din alder. Udvikleren har leveret disse oplysninger og kan løbende opdatere dem.
Der deles ikke data med tredjeparter
Få flere oplysninger om, hvordan udviklere angiver, at de deler data
Der blev ikke indsamlet data
Få flere oplysninger om, hvordan udviklere angiver, at de indsamler data

Nyheder

We’re excited to announce that we’ve expanded our supported AI model library with three new additions for enhanced versatility and performance.
New Models Added
Qwen2.5 1.5B Instruct
Available in multiple quantization formats (Q2_K → FP16) for diverse performance/memory trade-offs.
Llama 3.2 3B Instruct
Includes IQ, Q3, Q4, Q5, Q6, Q8, and F16 variants for flexible deployment.
Tesslate Tessa T1 3B
Wide range of quantization options from IQ2 to BF16 for optimal inference performance.