LLM Hub

500+
ការទាញយក
ចំណាត់ថ្នាក់ខ្លឹមសារ
គ្រប់គ្នា
រូបភាព​​រូបថត​អេក្រង់
រូបភាព​​រូបថត​អេក្រង់
រូបភាព​​រូបថត​អេក្រង់
រូបភាព​​រូបថត​អេក្រង់
រូបភាព​​រូបថត​អេក្រង់
រូបភាព​​រូបថត​អេក្រង់
រូបភាព​​រូបថត​អេក្រង់
រូបភាព​​រូបថត​អេក្រង់
រូបភាព​​រូបថត​អេក្រង់

អំពី​កម្មវិធីនេះ

LLM Hub នាំមកជូននូវ AI កម្រិតផលិតកម្មដោយផ្ទាល់ទៅកាន់ឧបករណ៍ Android របស់អ្នក — ឯកជន លឿន និងពេញលេញក្នុងមូលដ្ឋាន។ ដំណើរការ LLMs ទំនើបនៅលើឧបករណ៍ (Gemma-3, Gemma-3n multimodal, Llama-3.2, Phi-4 Mini) ជាមួយនឹងបង្អួចបរិបទធំ អង្គចងចាំជាសកលជាប់លាប់ និងការទាញយកជំនាន់បន្ថែម (RAG) ដែលផ្តល់ចម្លើយនៅក្នុងឯកសារដែលបានធ្វើលិបិក្រមដែលរក្សាទុកនៅលើឧបករណ៍។ បង្កើត និងរក្សាទុកការបង្កប់សម្រាប់ឯកសារ និងកំណត់ចំណាំ ដំណើរការការស្វែងរកវ៉ិចទ័រស្រដៀងគ្នានៅក្នុងមូលដ្ឋាន និងបង្កើនការឆ្លើយតបជាមួយនឹងការស្វែងរកតាមអ៊ីនធឺណិតដែលដំណើរការដោយ DuckDuckGo នៅពេលដែលអ្នកត្រូវការការពិតផ្ទាល់។ អ្វីគ្រប់យ៉ាងដែលសំខាន់នៅតែមាននៅលើទូរស័ព្ទរបស់អ្នក លុះត្រាតែអ្នកនាំចេញវាយ៉ាងច្បាស់៖ អង្គចងចាំសម្រាប់តែមូលដ្ឋាន សន្ទស្សន៍ និងការបង្កប់ការពារឯកជនភាពរបស់អ្នក ខណៈពេលដែលផ្តល់នូវភាពពាក់ព័ន្ធ និងភាពត្រឹមត្រូវខ្ពស់។

លក្ខណៈសំខាន់ៗ

ការសន្និដ្ឋាន LLM លើឧបករណ៍៖ ការឆ្លើយតបរហ័ស និងឯកជនដោយមិនមានពពក ជ្រើសរើសម៉ូដែលដែលត្រូវនឹងឧបករណ៍ និងតម្រូវការរបស់អ្នក។
Retrieval-Augmented Generation (RAG)៖ រួមបញ្ចូលគ្នានូវហេតុផលគំរូជាមួយនឹងកំណាត់ឯកសារដែលបានធ្វើលិបិក្រម និងការបង្កប់ដើម្បីបង្កើតចម្លើយដែលផ្អែកលើការពិត។
Persistent Global Memory៖ រក្សាទុកការពិត ឯកសារ និងចំណេះដឹងទៅកាន់អង្គចងចាំក្នុងឧបករណ៍ជាប់លាប់ (Room DB) សម្រាប់ការរំលឹករយៈពេលវែងនៅទូទាំងវគ្គ។
ការបង្កប់ និងការស្វែងរកវ៉ិចទ័រ៖ បង្កើតការបង្កប់ មាតិកាលិបិក្រមក្នុងមូលដ្ឋាន និងទាញយកឯកសារដែលពាក់ព័ន្ធបំផុតជាមួយនឹងការស្វែងរកភាពស្រដៀងគ្នាប្រកបដោយប្រសិទ្ធភាព។
ការគាំទ្រពហុម៉ូឌុល៖ ប្រើគំរូដែលមានសមត្ថភាពអត្ថបទ + រូបភាព (Gemma-3n) សម្រាប់អន្តរកម្មកាន់តែសម្បូរបែបនៅពេលមាន។
ការរួមបញ្ចូលការស្វែងរកតាមគេហទំព័រ៖ បន្ថែមចំណេះដឹងក្នុងតំបន់ជាមួយនឹងលទ្ធផលគេហទំព័រដែលដំណើរការដោយ DuckDuckGo ដើម្បីទាញយកព័ត៌មានថ្មីៗសម្រាប់សំណួរ RAG និងចម្លើយភ្លាមៗ។
Offline-Ready៖ ធ្វើការដោយគ្មានការចូលប្រើបណ្តាញ — ម៉ូដែល អង្គចងចាំ និងលិបិក្រមនៅតែមាននៅលើឧបករណ៍។
ការបង្កើនល្បឿន GPU (ជាជម្រើស)៖ ទទួលបានអត្ថប្រយោជន៍ពីការបង្កើនល្បឿនផ្នែករឹងដែលគាំទ្រ — សម្រាប់លទ្ធផលល្អបំផុតជាមួយនឹងម៉ូដែលដែលគាំទ្រ GPU ធំជាង យើងណែនាំឧបករណ៍ដែលមាន RAM យ៉ាងតិច 8GB។
Privacy-First Design: អង្គចងចាំ ការបង្កប់ និងសន្ទស្សន៍ RAG នៅតែស្ថិតក្នុងមូលដ្ឋានតាមលំនាំដើម។ គ្មានការបង្ហោះពពកទេ លុះត្រាតែអ្នកជ្រើសរើសយ៉ាងច្បាស់ដើម្បីចែករំលែក ឬនាំចេញទិន្នន័យ។
ការគ្រប់គ្រងបរិបទវែង៖ ការគាំទ្រសម្រាប់ម៉ូដែលដែលមានបង្អួចបរិបទធំ ដូច្នេះជំនួយការអាចវែកញែកអំពីឯកសារ និងប្រវត្តិដ៏ទូលំទូលាយ។
Developer-Friendly៖ រួមបញ្ចូលជាមួយនឹងការសន្និដ្ឋានក្នុងស្រុក ការធ្វើលិបិក្រម និងការទាញយកករណីប្រើប្រាស់សម្រាប់កម្មវិធីដែលទាមទារឯកជន និងក្រៅបណ្តាញ AI។
ហេតុអ្វីត្រូវជ្រើសរើស LLM Hub? LLM Hub ត្រូវបានបង្កើតឡើងដើម្បីផ្តល់នូវ AI ឯកជន ត្រឹមត្រូវ និងអាចបត់បែនបាននៅលើទូរសព្ទ។ វារួមបញ្ចូលគ្នានូវល្បឿននៃការសន្និដ្ឋានក្នុងតំបន់ជាមួយនឹងមូលដ្ឋានជាក់ស្តែងនៃប្រព័ន្ធដែលមានមូលដ្ឋានលើការទាញយក និងភាពងាយស្រួលនៃការចងចាំជាប់លាប់ — ដ៏ល្អសម្រាប់បុគ្គលិកចំណេះដឹង អ្នកប្រើប្រាស់ដែលដឹងអំពីឯកជនភាព និងអ្នកអភិវឌ្ឍន៍ដែលបង្កើតមុខងារ AI ដំបូងក្នុងស្រុក។

ម៉ូដែលដែលគាំទ្រ៖ Gemma-3, Gemma-3n (ពហុមុខងារ), Llama-3.2, Phi-4 Mini — ជ្រើសរើសម៉ូដែលដែលសមនឹងសមត្ថភាពឧបករណ៍ និងតម្រូវការបរិបទរបស់អ្នក។
បាន​ដំឡើងកំណែ​នៅ
16 កញ្ញា 2025

សុវត្ថិភាព​ទិន្នន័យ

សុវត្ថិភាព​ចាប់ផ្ដើមពី​ការយល់ដឹងអំពី​របៀបដែល​អ្នកអភិវឌ្ឍន៍​ប្រមូល និង​ចែករំលែក​ទិន្នន័យរបស់អ្នក។ ការអនុវត្ត​ចំពោះសន្តិសុខ និង​ឯកជនភាព​ទិន្នន័យ​អាចខុសគ្នាទៅតាម​ការប្រើប្រាស់ តំបន់ និង​អាយុរបស់អ្នក។ អ្នកអភិវឌ្ឍន៍​បានផ្ដល់​ព័ត៌មាននេះ និង​អាចធ្វើបច្ចុប្បន្នភាព​វានៅពេលខាងមុខ។
មិនចែករំលែក​ទិន្នន័យ​ជាមួយ​ភាគីទីបីឡើយ
ស្វែងយល់​បន្ថែមអំពី​របៀបដែល​អ្នកអភិវឌ្ឍន៍​ប្រកាសអំពី​ការចែករំលែក​ទិន្នន័យ
មិនប្រមូល​ទិន្នន័យឡើយ
ស្វែងយល់​បន្ថែមអំពី​របៀបដែល​អ្នកអភិវឌ្ឍន៍​ប្រកាសអំពី​ការប្រមូលទិន្នន័យ

អ្វី​ដែល​ថ្មី

- Upgraded Phi-4 Mini Max context window to 4096 and enabled GPU backend
- Model loading configuration now remembers your last settings
- Added translation support for Italian

ជំនួយកម្មវិធី

អំពីអ្នក​អភិវឌ្ឍន៍
Yuan Qian
timmyboy0623@gmail.com
33 Magdalena Place, Rowville Rowville Clayton VIC 3168 Australia
undefined

កម្មវិធី​ស្រដៀងគ្នា