LLM Client 概要 LLM(言語モデル)クライアント。 Ollama サーバーに接続して、チャット形式でモデルに質問が可能です。 動作環境 Ollama サーバーが http://localhost:11434 で動作していること 言語モデルは gemma3:1b-it-qat 固定 インストール Releaseからダウンロード インストール アプリを起動 使い方 メッセージを入力 送信ボタンで LLM に送信 応答メッセージが画面に表示 メッセージ履歴も表示される