MobileLLM läuft mit Llama 3.3, DeepSeek-R1, Gemma 3, Phi und anderen beliebten großen Sprachmodellen auf Ihrem Telefon. Sie können mit LLM lokal und privat ohne Netzwerk chatten.
Unterstützen Sie Vision-Modelle wie Gemma 3, Llava.
Seien Sie beim Herunterladen großer Modelle etwas geduldig.
Hauptmerkmale:
- Offline-Chat: Interagieren Sie mit fortschrittlichen KI-Modellen direkt auf Ihrem Gerät, ohne dass eine Internetverbindung erforderlich ist.
- Beliebtes LLM-Modell integeriert: Llama 3.3, DeepSeek-R1, Phi-4, Gemma 3, Llava, Mistral
- Text-to-Speech, sprechen Sie die Antwort so aus, wie Sie möchten.
- Der Chat-Verlauf wird auf Ihrem Telefon gespeichert, aus Datenschutzgründen ist kein Daten-Upload ins Internet erforderlich.
Aktualisiert am
09.04.2025