Local LLMは、大規模言語モデルをデバイス上で直接実行するために設計された、強力かつプライバシー重視のツールです。クラウド、データ収集、サブスクリプションは一切不要。純粋なローカルAIパフォーマンスを実現します。
主な機能:
• マルチモーダル機能とWeb検索:LiteRT(.litert)形式のマルチモーダルGemma 4モデルをサポートし、画像と音声をAIに直接送信できます。さらに、明示的な承認があれば、これらのモデルはWebを検索してリアルタイム情報を取得できます。
• GGUFサポート:GGUF形式(Gemmaなど)で、お気に入りのインストラクションチューニング済みLLMをインポートして実行できます。
• モデルストア:開発者推奨モデルをアプリ内で直接閲覧・ダウンロードしたり、独自のモデルをインポートしたりできます。
• WhisperまたはGemma 4による音声入力:WhisperまたはGemma 4ベースの音声認識を使用して、ハンズフリーでデバイス上でモデルと対話できます。
• ウクライナ語TTS&テキストリーダー:StyleTTS2(patriotyk社製)を搭載した完全統合型テキスト読み上げリーダーで、ネイティブのウクライナ語をサポート。インターネット接続は不要です。
• AI翻訳モード:ローカルモデルをプロの翻訳ツールとして活用しながら、コンテンツのプライバシーを完全に保護します。
• 100%オフライン&プライベート:データはデバイスから外部に送信されることはありません。すべての処理はローカルで行われるため、最大限のプライバシーとセキュリティが確保されます。
Local LLMを選ぶ理由
• モデル設定後は、APIキーやインターネット接続は不要です。
• AIモデルとデータを完全に制御できます。
• 開発者、プライバシー重視の方、ローカルAIの世界を探求したい方に最適です。
重要事項:
このアプリには、プリインストールされたモデルファイルは含まれていません。内蔵のモデルストアを使用して推奨モデルをダウンロードするか、独自のインストラクションチューニング済みGGUFファイルをインポートしてください。