このガイドのゴール
このガイドでは、AITuberKitを使って「LLMと会話できるアバターがブラウザで動く」状態を30分で作ることを目指します。配信プラットフォームへの接続やキャラ設定の作り込みは、まず動く状態を確認してからの次のステップです。
AITuberKitはVRM・Live2D・MotionPNGTuber、複数のLLM、複数のTTSに対応した総合ツールキットで、個人開発者が最初に全体像を掴むのに向いています。
必要なもの、最短の導入手順、最初にやるべき設定だけに絞って解説します。まず動くものを30分で作り、細かい調整はあとから回しましょう。
このガイドでは、AITuberKitを使って「LLMと会話できるアバターがブラウザで動く」状態を30分で作ることを目指します。配信プラットフォームへの接続やキャラ設定の作り込みは、まず動く状態を確認してからの次のステップです。
AITuberKitはVRM・Live2D・MotionPNGTuber、複数のLLM、複数のTTSに対応した総合ツールキットで、個人開発者が最初に全体像を掴むのに向いています。
以下の3つだけ揃っていれば始められます。すべて無料枠で試せるものです。
ターミナルを開いて以下のコマンドを順に実行します。
git clone https://github.com/tegnike/aituber-kit.git → cd aituber-kit → npm install → cp .env.example .env → npm run dev
npm installが完了したらnpm run devでローカルサーバーが立ち上がります。ブラウザで http://localhost:3000 を開けば初期画面が表示されます。Dockerを使いたい場合は cp .env.example .env → docker compose up -d でも同じ結果になります。
.envファイルをテキストエディタで開き、使いたいLLMのAPIキーを設定します。
たとえばOpenAIならOPENAI_API_KEYの行にキーを書くだけです。Google AI StudioやAnthropicを使う場合も、対応する環境変数にキーを入れれば切り替わります。
設定したらnpm run devを再起動して、ブラウザの設定画面から使用するAIサービスを選択します。テキスト入力欄に何か打ってみて、キャラクターが返事をすれば接続成功です。
AITuberKitは複数の音声合成サービスに対応しています。最短で試すなら、以下の選択肢があります。
ブラウザ内蔵のWeb Speech APIを使えば追加設定なしで音声が出ます。品質を求めるならVOICEVOX(ローカル無料)やAivisSpeechをインストールしてAPIサーバーを起動し、設定画面から接続先を指定します。
まずはWeb Speech APIで動作確認してから、好みの音声に切り替えるのがおすすめです。
AITuberKitはVRM、Live2D、MotionPNGTuberの3形式に対応しています。初期状態でもデフォルトのアバターが表示されますが、自分のキャラクターに差し替えることができます。
VRMモデルはVRoid Studio(無料)で作成できます。作ったモデルを.vrm形式でエクスポートし、AITuberKitの設定画面からアップロードするだけです。
Live2Dモデルを持っている場合は設定で切り替えられます。手軽に始めるなら、まずはデフォルトアバターのまま進めて、キャラクターの見た目は後から作り込む方が効率的です。
ここまでの手順で、ブラウザ上に表示されたアバターに対してテキストで話しかけると、LLMが生成した返答を音声付きで喋ってくれる状態になっています。これがAITuberの最小構成です。
次のステップとして、YouTube Liveのコメント取得機能を有効にすれば配信中のコメントに自動で応答するAITuberとして動作します。キャラクターの口調や性格はシステムプロンプトで調整できます。
30分で最小構成が動いたら、以下のような拡張を検討してみてください。段階的に進めることで、自分だけのAITuberを作り上げていけます。
よくあるトラブルと対処法をまとめます。
集計
まだ評価なし
👍 0 / 👎 0 / レビュー 0
コメント投稿は 1IP につき 1 回までです。
★★★★★ 5 / 5
星評価を選んでからコメントを送信してください。
まだレビューコメントはありません。星付きレビューを送るとここに表示されます。