Dies ist eine Chat-App im Material3-Stil, die Antworten von mehreren LLMs gleichzeitig unterstützt.
Unterstützte Plattformen
- OpenAI GPT (GPT-4o, Turbo usw.)
- Anthropic Claude (3.5 Sonnet, 3 Opus usw.)
- Google Gemini (1.5 Pro, Flash usw.)
- Ollama (Ihr eigener Server)
Lokaler Chatverlauf
Der Chatverlauf wird nur lokal gespeichert. Die App sendet beim Chatten nur an offizielle API-Server. Wird nirgendwo anders geteilt.
Benutzerdefinierte API-Adresse und benutzerdefinierter Modellname werden unterstützt. Passen Sie außerdem die Systemaufforderung, den Höchstwert, die Temperatur und mehr an!
Beachten Sie, dass einige Plattformen in manchen Ländern möglicherweise nicht unterstützt werden.
Aktualisiert am
18.12.2024