Tiny Mind : Offline Ai

มีโฆษณา
100+
ดาวน์โหลด
การจัดประเภทเนื้อหา
สำหรับทุกคน
ภาพหน้าจอ
ภาพหน้าจอ
ภาพหน้าจอ
ภาพหน้าจอ
ภาพหน้าจอ

เกี่ยวกับแอปนี้

🧠 Tiny AI: AI ประจำเครื่อง – ผู้ช่วย GPT ออฟไลน์ของคุณ
Tiny AI คือผู้ช่วย AI ออฟไลน์อันทรงพลังที่ทำงานบนอุปกรณ์ของคุณโดยตรง ไม่ต้องใช้อินเทอร์เน็ต ไม่ต้องประมวลผลบนคลาวด์ และไม่ต้องแชร์ข้อมูลใดๆ ทั้งสิ้น ขับเคลื่อนด้วยโมเดล GGUF ประจำเครื่อง เช่น TinyLlama ช่วยให้คุณสัมผัสพลังของ Generative AI ได้ทุกที่ทุกเวลา พร้อมความเป็นส่วนตัวและอิสระอย่างเต็มที่

ไม่ว่าคุณกำลังมองหาผู้ช่วยอัจฉริยะสำหรับการเขียน การทำงาน การเรียนรู้ หรือเพียงแค่การแชท Little AI ก็นำความสามารถของโมเดลภาษาขนาดใหญ่ (LLM) มาไว้ใกล้มือคุณ โดยไม่ต้องส่งข้อมูลใดๆ ไปยังเซิร์ฟเวอร์ภายนอก

🚀 คุณสมบัติหลัก:
✅ ทำงานแบบออฟไลน์ 100%
ไม่จำเป็นต้องเชื่อมต่ออินเทอร์เน็ตหลังจากดาวน์โหลดโมเดล

แชท ข้อความแจ้งเตือน และข้อมูลของคุณจะยังคงอยู่ในอุปกรณ์ของคุณอย่างสมบูรณ์

✅ ดาวน์โหลดและจัดการโมเดล GGUF
เลือกจากโมเดลประจำเครื่องที่หลากหลาย (เช่น TinyLlama, Phi, Mistral)

ดาวน์โหลดเฉพาะโมเดลที่คุณต้องการ

ลบหรือเปลี่ยนโมเดลได้ทุกเมื่อเพื่อประหยัดพื้นที่

✅ ข้อความแจ้งระบบที่ปรับแต่งได้
รองรับข้อความแจ้งระบบในโมเดลที่อนุญาต

เทมเพลตที่ปรับเปลี่ยนตามโครงสร้างและความต้องการของการจัดรูปแบบของโมเดล

✅ ประสบการณ์แชทภายในเครื่องที่ชาญฉลาด
ถามคำถาม เขียนอีเมล ระดมความคิด — เหมือนกับการแชท AI แต่ทำได้ภายในเครื่อง

ทำงานได้แม้ในโหมดเครื่องบิน!

✅ อินเทอร์เฟซที่ใช้งานง่าย
UI ที่เรียบง่าย รองรับธีมสีเข้ม/สีอ่อน และการปรับแต่งอวาตาร์

การออนบอร์ดที่ง่ายดายเพื่อให้คุณเริ่มต้นใช้งานได้ภายในไม่กี่วินาที

📥 โมเดลที่รองรับ
TinyLlama 1.1B

Mistral

Phi

โมเดลอื่นๆ ที่เข้ากันได้กับ GGUF

แต่ละโมเดลมีระดับการวัดปริมาณที่หลากหลาย (Q2_K, Q3_K เป็นต้น) ช่วยให้คุณปรับสมดุลความเร็ว ความแม่นยำ และขนาดพื้นที่เก็บข้อมูล

🔐 มุ่งเน้นความเป็นส่วนตัว 100%
เราเชื่อว่าข้อมูลของคุณเป็นของคุณ Little AI จะไม่ส่งแชทของคุณไปยังเซิร์ฟเวอร์ใดๆ หรือจัดเก็บอะไรไว้ในคลาวด์ ทุกอย่างเกิดขึ้นบนโทรศัพท์ของคุณ

💡 กรณีการใช้งาน:
✍️ ความช่วยเหลือด้านการเขียน (อีเมล บทความ สรุป)

📚 ความช่วยเหลือด้านการเรียนและการตอบคำถาม

🧠 การระดมความคิดและการสร้างไอเดีย

💬 การสนทนาที่สนุกสนานและเป็นกันเอง

📴 แอปพลิเคชันคู่หูออฟไลน์สำหรับการเดินทางหรือพื้นที่ที่มีการเชื่อมต่อต่ำ

📱 จุดเด่นทางเทคนิค:
GGUF Model Loader (รองรับ llama.cpp)

การสลับโมเดลแบบไดนามิกและเทมเพลตพร้อมท์

การแจ้งเตือนการเชื่อมต่อออฟไลน์แบบ Toast

ใช้งานได้บนอุปกรณ์ Android ที่ทันสมัยส่วนใหญ่ (แนะนำให้ใช้ RAM 4GB ขึ้นไป)

📎 หมายเหตุ:
แอปนี้ไม่จำเป็นต้องเข้าสู่ระบบหรือเชื่อมต่ออินเทอร์เน็ตหลังจากดาวน์โหลดโมเดลแล้ว

บางรุ่นอาจต้องใช้หน่วยความจำที่มากขึ้น แนะนำให้ใช้อุปกรณ์ที่มี RAM 6GB ขึ้นไปเพื่อการใช้งานที่ราบรื่น

โมเดลและฟีเจอร์เพิ่มเติม (เช่น การป้อนข้อมูลด้วยเสียง ประวัติการแชท และการรองรับปลั๊กอิน) กำลังจะเปิดตัวเร็วๆ นี้!

🛠️ หมวดหมู่:
ประสิทธิภาพการทำงาน

เครื่องมือ

AI Chatbot

ยูทิลิตี้ที่เน้นความเป็นส่วนตัว

🌟 ทำไมต้องเลือก Little AI?
Little AI แตกต่างจากผู้ช่วย AI ทั่วไปตรงที่ไม่ต้องพึ่งพาคลาวด์ เคารพความเป็นส่วนตัวของคุณ ให้คุณควบคุมสภาพแวดล้อม AI ของคุณได้ และทำงานได้ทุกที่ แม้ในโหมดเครื่องบินหรือในพื้นที่ห่างไกล

เพลิดเพลินกับพลังของ AI ในกระเป๋าของคุณได้อย่างมั่นใจ

ดาวน์โหลดเลยและเริ่มต้นการเดินทาง AI แบบออฟไลน์ของคุณกับ Little AI!
ไม่มีการติดตาม ไม่มีการเข้าสู่ระบบ ไม่มีอะไรซับซ้อน มีเพียงระบบอัจฉริยะส่วนตัวที่พกพาได้
อัปเดตเมื่อ
11 ส.ค. 2568

ความปลอดภัยของข้อมูล

ความปลอดภัยเริ่มต้นด้วยความเข้าใจเกี่ยวกับวิธีที่นักพัฒนาแอปรวบรวมและแชร์ข้อมูล แนวทางปฏิบัติด้านความเป็นส่วนตัวและความปลอดภัยของข้อมูลอาจแตกต่างกันไปตามการใช้งาน ภูมิภาค และอายุของคุณ นักพัฒนาแอปได้ให้ข้อมูลนี้ไว้และอาจอัปเดตข้อมูลในส่วนนี้เมื่อเวลาผ่านไป
ไม่มีการแชร์ข้อมูลกับบุคคลที่สาม
ดูข้อมูลเพิ่มเติมเกี่ยวกับวิธีที่นักพัฒนาแอปประกาศเรื่องการแชร์ข้อมูล
ไม่มีข้อมูลที่รวบรวมไว้
ดูข้อมูลเพิ่มเติมเกี่ยวกับวิธีที่นักพัฒนาแอปประกาศเรื่องการรวบรวมข้อมูล

มีอะไรใหม่

We’re excited to announce that we’ve expanded our supported AI model library with three new additions for enhanced versatility and performance.
New Models Added
Qwen2.5 1.5B Instruct
Available in multiple quantization formats (Q2_K → FP16) for diverse performance/memory trade-offs.
Llama 3.2 3B Instruct
Includes IQ, Q3, Q4, Q5, Q6, Q8, and F16 variants for flexible deployment.
Tesslate Tessa T1 3B
Wide range of quantization options from IQ2 to BF16 for optimal inference performance.