Source: https://www.aituber-now.com/production

# 制作・運用ページ

AITuber制作に使われる主要ツール、導入の入口、周辺OSSの動きをまとめて追えるページです。

![Remotion](https://www.aituber-now.com/_next/image?url=https%3A%2F%2Favatars.githubusercontent.com%2Fu%2F85344006%3Fv%3D4&w=3840&q=75)Viewpoint 01

## 最短で一式試す

会話、音声、アバター、配信までまとめて触るなら AITuberKit や AI-VTuber-System のような総合系から入る方が判断が早いです。

![MindCraft](https://www.aituber-now.com/_next/image?url=https%3A%2F%2Favatars.githubusercontent.com%2Fu%2F227438392%3Fv%3D4&w=3840&q=75)Viewpoint 02

## 部品で組み上げる

既存アプリへ機能を足すなら AITuber OnAir や ChatdollKit のような部品型が向いています。完成形よりも接続面を見ると選びやすいです。

![Style-Bert-VITS2](https://www.aituber-now.com/_next/image?url=https%3A%2F%2Favatars.githubusercontent.com%2Fu%2F139731664%3Fv%3D4&w=3840&q=75)Viewpoint 03

## 部分強化で伸ばす

表現は MotionPNGTuber、音声は Style-Bert-VITS2、実験配信は MindCraft のように、弱い部分だけ個別OSSで強化する選び方も相性が良いです。

README Based Guides

## 主要OSSの簡単な始め方

![tegnike](https://www.aituber-now.com/_next/image?url=https%3A%2F%2Favatars.githubusercontent.com%2Fu%2F35606144%3Fv%3D4&w=3840&q=75)

オールインワン

### AITuberKit

VRM・Live2D・MotionPNGTuber、複数LLM、複数TTS、配信モードまで一式をまとめて試せる総合ツールキットです。

[GitHub](https://github.com/tegnike/aituber-kit)[README](https://github.com/tegnike/aituber-kit/blob/main/README.md)

VRMLive2DMotionPNGTuberDockerTypeScript

向いている人

まず1つのアプリで会話・音声・アバター・配信導線まで通したい人。個人開発の最初の土台として扱いやすいです。

注意点

READMEでは v2.0.0 以降の商用利用条件と、公開運用時のAPIキー管理に強い注意があります。外部公開はバックエンド経由が前提です。

ローカル開発

Node.js 24系と npm 11 系で最初の動作確認をする入口です。

1. 1.git clone https://github.com/tegnike/aituber-kit.git
2. 2.cd aituber-kit
3. 3.npm install
4. 4.cp .env.example .env
5. 5.npm run dev
6. 6.http://localhost:3000 を開く

Docker

依存関係を手元に増やしたくない場合の最短ルートです。

1. 1.cp .env.example .env
2. 2.docker compose up -d
3. 3.http://localhost:3000 を開く
4. 4.停止は docker compose down

公開前チェック

READMEが明示している運用上の最低ラインです。

1. 1.APIキーをクライアントに直置きしない
2. 2.AI/TTS呼び出しはバックエンド経由にする
3. 3.認証やアクセス制限を追加する

![shinshin86](https://www.aituber-now.com/_next/image?url=https%3A%2F%2Favatars.githubusercontent.com%2Fu%2F8216064%3Fv%3D4&w=3840&q=75)

部品として組み込む

### AITuber OnAir

完成アプリというより、会話・音声・配信周辺の機能を npm パッケージとして切り出した TypeScript モノレポです。

[GitHub](https://github.com/shinshin86/aituber-onair)[README](https://github.com/shinshin86/aituber-onair/blob/main/README.md)

TypeScriptnpmReactTTSTypeScript

向いている人

既存のWebアプリにAI会話やTTSを足したい人、Reactサンプルを見ながら自前UIに組み込みたい人向けです。

注意点

READMEの入口はモノレポ全体ですが、最短で触るなら npm パッケージか \`react-basic\` サンプルから入る方が迷いません。

npm パッケージ導入

既存アプリに必要な部品だけ入れるときの入口です。

1. 1.npm install @aituber-onair/core
2. 2.音声も使うなら npm install @aituber-onair/voice
3. 3.会話UIは自前実装、またはサンプル実装を参考にする

React サンプル

動くUIから入りたい場合は \`react-basic\` が最短です。

1. 1.git clone https://github.com/shinshin86/aituber-onair.git
2. 2.cd aituber-onair/packages/core/examples/react-basic
3. 3.npm install
4. 4.npm run dev
5. 5.http://localhost:5173 を開く

モノレポ開発

各 package をまとめて触る開発者向けの入口です。

1. 1.git clone https://github.com/shinshin86/aituber-onair.git
2. 2.cd aituber-onair
3. 3.npm install
4. 4.npm run build
5. 5.npm run test

C

ブラウザ完結

### Chrome on AITuber

Chrome組み込みAI（Gemini Nano）とブラウザ内TTS（piper-plus WASM）を使い、サーバーなしでAIチャットやAITuber配信ができるWebアプリです。ReactとViteで構築されています。

[GitHub](https://github.com/shinshin86/chrome-on-aituber)[README](https://github.com/shinshin86/chrome-on-aituber/blob/main/README.md)

Chrome AIPNGTuberTTSブラウザ完結

向いている人

LLMやTTSを自分で用意せず、Chromeからアクセスするだけで気軽にAITuber配信を試したい人向けです。PNGTuber形式のアバターに対応し、YouTubeとTwitchの同時配信もできます。

注意点

Chrome 138以上が必要で、chrome://flags から Gemini Nano 関連のフラグを有効にする必要があります。TTS用のpiperアセットは手動配置が必要です。

ローカル開発

Node.js 18以上の環境で開発サーバーを起動します。

1. 1.git clone https://github.com/shinshin86/chrome-on-aituber.git
2. 2.cd chrome-on-aituber
3. 3.npm install
4. 4.npm run dev
5. 5.Chrome 138以上で http://localhost:5173 を開く

Chrome フラグ設定

Gemini Nano を有効にするためのブラウザ設定です。

1. 1.chrome://flags/#optimization-guide-on-device-model を Enabled にする
2. 2.chrome://flags/#prompt-api-for-gemini-nano を Enabled にする
3. 3.Chrome を再起動する

TTS セットアップ

音声合成を使うための追加セットアップです。

1. 1.piper-plus WASM 用のアセットを所定のディレクトリに配置する
2. 2.詳細は README の TTS セクションを参照

![pixiv](https://www.aituber-now.com/_next/image?url=https%3A%2F%2Favatars.githubusercontent.com%2Fu%2F1657867%3Fv%3D4&w=3840&q=75)

ブラウザVRMの原点

### ChatVRM

ブラウザ上で VRM キャラクターと会話する最小構成に近いデモアプリです。設計の読み物として今も価値があります。

[GitHub](https://github.com/pixiv/ChatVRM)[README](https://github.com/pixiv/ChatVRM/blob/main/README.md)

VRMブラウザデモアーカイブ済みTypeScript

向いている人

WebブラウザだけでVRM会話UIを試したい人、AITuberKit系の源流を軽く把握したい人向けです。

注意点

READMEにある通り、2024年7月18日時点のコードでアーカイブ済みです。継続開発や本番利用は fork 前提で考える方が安全です。

ローカル検証

まず動きを見るだけなら README の手順はかなり短いです。

1. 1.git clone git@github.com:pixiv/ChatVRM.git
2. 2.npm install
3. 3.npm run dev
4. 4.http://localhost:3000 を開く

派生開発

今から触るなら fork して手元で改修する前提で考えます。

1. 1.OpenAI API と Koeiromap API の利用条件を先に確認する
2. 2.fork して自分用に依存サービスやUIを差し替える
3. 3.完全ローカル寄りなら related project の local-chat-vrm も検討する

![uezo](https://www.aituber-now.com/_next/image?url=https%3A%2F%2Favatars.githubusercontent.com%2Fu%2F19625242%3Fv%3D4&w=3840&q=75)

Unity SDK

### ChatdollKit

Unity上で3Dモデルを会話エージェント化するためのSDKです。音声、表情、ジェスチャー、外部制御までかなり広く面倒を見ます。

[GitHub](https://github.com/uezo/ChatdollKit)[README](https://github.com/uezo/ChatdollKit/blob/master/README.md)

UnityVRMWebGLマルチプラットフォームC#

向いている人

Unityで3Dアバターを本格的に動かしたい人、WebGLやモバイルも視野に入れて会話体験を作りたい人向けです。

注意点

READMEでは SRP テンプレート非対応が明記されています。依存パッケージも多いので、最初は demo scene を通すところまでを目標にするのが安全です。

Unity Editor で試す

最短は demo scene をそのまま起動して流れを掴む方法です。

1. 1.最新版 unitypackage と依存パッケージを入れる
2. 2.Demo/Demo08 シーンを開く
3. 3.AIAvatarVRM の Inspector で OpenAI 関連キーを設定する
4. 4.Unity Editor で Play して会話を試す

新規Unityプロジェクト

自前プロジェクトへ組み込むときの基本導線です。

1. 1.AIAvatarVRM prefab を配置する
2. 2.ModelController と Animator をセットアップする
3. 3.SpeechListener / SpeechSynthesizer を付ける
4. 4.MicrophoneController を置いて実行する

WebGL

READMEでも注意点が多い上級者向けの入口です。

1. 1.CORS 前提でHTTP周りを組む
2. 2.マイクは ChatdollMicrophone を使う
3. 3.音声は WAV を使う
4. 4.Async/Await ではなく UniTask を基本にする

![AIVTDevPKevin](https://www.aituber-now.com/_next/image?url=https%3A%2F%2Favatars.githubusercontent.com%2Fu%2F161304793%3Fv%3D4&w=3840&q=75)

Python GUI

### AI-VTuber-System

GUI中心で自作AI VTuberを立ち上げる Python ベースのシステムです。README 冒頭では次世代版の開発告知も出ています。

[GitHub](https://github.com/AIVTDevPKevin/AI-VTuber-System)[README](https://github.com/AIVTDevPKevin/AI-VTuber-System/blob/main/README.md)

PythonGUIWhisperNVIDIAPython

向いている人

Python 環境で一気にAI VTuberを組みたい人、WhisperやGPUを含めてまとめて触りたい人向けです。

注意点

現行 README の導入は NVIDIA + CUDA 12.1 寄りです。CPUだけで気軽に始めるタイプではなく、まず対応GPUの有無を確認した方がいいです。

NVIDIA GPU 環境

READMEに載っている基本導入ルートです。

1. 1.Python 3.8 以上を用意する
2. 2.pip3 install -r requirements.txt
3. 3.pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
4. 4.NVIDIA ドライバを最新に更新する

初見セットアップ

READMEは動画とマニュアルへの導線も強いです。

1. 1.Tutorial Video を先に見て画面構成を把握する
2. 2.User Manual を開いて設定項目を確認する
3. 3.Google AI Studio の API Key を取得する

低VRAMで試す

Whisper はモデルサイズ選びで現実的な負荷がかなり変わります。

1. 1.まず tiny / base から試す
2. 2.余裕があれば small へ上げる
3. 3.large 系は VRAM 10GB 前後を見込む

![rotejin](https://www.aituber-now.com/_next/image?url=https%3A%2F%2Favatars.githubusercontent.com%2Fu%2F128216944%3Fv%3D4&w=3840&q=75)

口パク・表情特化

### MotionPNGTuber

ループ動画と口スプライトで、PNGTuberより豊か・Live2Dより軽い表現を狙うリアルタイム口パクツールです。

[GitHub](https://github.com/rotejin/MotionPNGTuber)[README](https://github.com/rotejin/MotionPNGTuber/blob/main/README.md)

PNGTuber口パクWindowsmacOSPython

向いている人

Live2D制作まで行かずに、髪揺れや衣装の動きがある配信用アバターを早く作りたい人に向いています。

注意点

Windows では比較的入りやすい一方、macOS は実験的でソースビルド工程が多いです。最初は Windows GUI かブラウザ版の考え方を掴むのがおすすめです。

Windows GUI

READMEの最短3ステップで試せる基本ルートです。

1. 1.Python 3.10 と uv を入れる
2. 2.uv sync
3. 3.uv run python mouth\_track\_gui.py
4. 4.sample assets で 解析→キャリブ→口消し→ライブ実行 の順に進める

macOS (Apple Silicon)

READMEでは実験的対応として別 pyproject と追加ビルドが案内されています。

1. 1.pyproject.macos.toml を pyproject.toml に差し替える
2. 2.uv venv .venv && uv sync
3. 3.torch 2.0.1 / torchvision 0.15.2 を追加する
4. 4.xtcocotools と mmcv-full をソースからビルドする

ブラウザ版との併用

READMEと関連リポジトリでは Player 系の併用が案内されています。

1. 1.Python版で口消し動画と mouth\_track.json を作る
2. 2.mouth フォルダを含むアバター一式を用意する
3. 3.MotionPNGTuber\_Player の assets に置いて OBS 向けに使う

![mindcraft-bots](https://www.aituber-now.com/_next/image?url=https%3A%2F%2Favatars.githubusercontent.com%2Fu%2F227438392%3Fv%3D4&w=3840&q=75)

ゲーム連携エージェント

### MindCraft

Minecraft Java Edition 上で LLM と Mineflayer を組み合わせて bot を動かすプロジェクトです。AITuber直結ではないですが、実験配信や企画向けの伸びしろがあります。

[GitHub](https://github.com/mindcraft-bots/mindcraft)[README](https://github.com/mindcraft-bots/mindcraft/blob/main/README.md)

MinecraftMineflayerDockerLANJavaScript

向いている人

ゲーム実況系のAIキャラ、協調エージェント、Minecraft連携を試したい人向けです。

注意点

READMEは \`allow\_insecure\_coding\` を有効にして公衆サーバーへ接続する危険性を強く警告しています。公開サーバー運用は慎重に扱うべきです。

ローカルLAN

READMEの標準ルートです。まずローカルワールドで試します。

1. 1.git clone https://github.com/mindcraft-bots/mindcraft.git
2. 2.keys.example.json を keys.json にして API key を入れる
3. 3.npm install
4. 4.Minecraft ワールドを localhost:55916 で LAN 公開する
5. 5.node main.js

Docker で隔離

危険性を下げたいときはコンテナ実行が推奨されています。

1. 1.docker run または docker-compose up を使う
2. 2.ローカルサーバー接続時は host を host.docker.internal に変える
3. 3.remote server で coding を許可する前に隔離を確認する

オンラインサーバー

Microsoft アカウントを使う構成です。

1. 1.settings.js の host / port / auth を書き換える
2. 2.auth を microsoft にする
3. 3.profile 名を Minecraft プロフィール名と完全一致させる

![litagin02](https://www.aituber-now.com/_next/image?url=https%3A%2F%2Favatars.githubusercontent.com%2Fu%2F139731664%3Fv%3D4&w=3840&q=75)

音声合成

### Style-Bert-VITS2

感情やスタイル制御を強く意識した日本語TTS基盤です。推論だけなら CPU でも動き、学習やマージまで一通り揃っています。

[GitHub](https://github.com/litagin02/Style-Bert-VITS2)[README](https://github.com/litagin02/Style-Bert-VITS2/blob/master/README.md)

TTSWindowsuvColabPython

向いている人

AITuberの音声品質を一段上げたい人、将来的に自前音声モデルやAPIサーバー運用まで見据えている人向けです。

注意点

READMEの先頭で利用規約確認が求められています。学習には NVIDIA GPU が必要ですが、音声合成だけなら CPU でも始められます。

Windows かんたん導入

Git や Python に慣れていない人向けの導線が README に明記されています。

1. 1.最新版 sbv2.zip を日本語や空白のないパスに展開する
2. 2.GPUありなら Install-Style-Bert-VITS2.bat を実行する
3. 3.GPUなしなら CPU 用 bat を実行する
4. 4.Editor が起動したらそのままデフォルトモデルで試す

開発者向け uv 構築

手元で細かく制御したいなら uv 構築が素直です。

1. 1.uv を入れる
2. 2.git clone https://github.com/litagin02/Style-Bert-VITS2.git
3. 3.uv venv venv && venv\\Scripts\\activate
4. 4.uv pip install "torch<2.4" "torchaudio<2.4" --index-url https://download.pytorch.org/whl/cu118
5. 5.uv pip install -r requirements.txt
6. 6.python initialize.py

Colab / APIサーバー

手元GPUが弱い場合と外部連携したい場合の入口です。

1. 1.学習は公式 colab.ipynb を使う
2. 2.API化するなら python server\_fastapi.py
3. 3.起動後に /docs で仕様を確認する

![Aivis-Project](https://www.aituber-now.com/_next/image?url=https%3A%2F%2Favatars.githubusercontent.com%2Fu%2F162086347%3Fv%3D4&w=3840&q=75)

音声合成

### AivisSpeech

VOICEVOX系UIに AivisSpeech Engine を組み込んだ日本語TTSソフトです。AIVMX 形式を使い、CPUでも感情豊かな読み上げを狙いやすいのが強みです。

[GitHub](https://github.com/Aivis-Project/AivisSpeech)[公式ガイド](https://aivis-project.com/)

TTSWindowsmacOSAIVMXTypeScript

向いている人

まずは学習よりも、ローカルで自然な日本語TTSをすぐ試したい人や、Style-Bert-VITS2 系モデルを Aivis 系ワークフローへ寄せたい人向けです。

注意点

公式情報では初回起動時にモデルデータ取得のためネット接続が必要です。Windows 10 は 22H2 以降、macOS は 13 以降が前提で、Intel Mac は積極検証されていません。

Windows 利用者

公式サイトからダウンロードして最短で使う一般向けルートです。

1. 1.Windows 10 なら 22H2 以降、または Windows 11 を確認する
2. 2.公式サイトから AivisSpeech をダウンロードする
3. 3.初回起動時はインターネット接続したまま待つ
4. 4.必要なら AivisHub から追加モデルを入れる

macOS 利用者

Apple Silicon を優先したい構成です。

1. 1.macOS 13 Ventura 以降を確認する
2. 2.公式サイトから macOS 版をダウンロードする
3. 3.初回起動時のセキュリティ警告は公式手順に沿って許可する
4. 4.初回モデル取得が終わるまで数分待つ

開発・連携

README は開発者向けに Node/Electron 側の構築手順も持っています。

1. 1.Node.js 22.11.0 を用意する
2. 2.npm ci
3. 3.cp .env.development .env
4. 4.別ターミナルで AivisSpeech Engine を立ち上げて連携確認する

![remotion-dev](https://www.aituber-now.com/_next/image?url=https%3A%2F%2Favatars.githubusercontent.com%2Fu%2F85344006%3Fv%3D4&w=3840&q=75)

動画生成

### Remotion

React で動画をコード生成するためのフレームワークです。AITuberの紹介動画、字幕付き切り抜き、運用説明動画の自動化と相性が良いです。

[GitHub](https://github.com/remotion-dev/remotion)[公式Docs](https://www.remotion.dev/)

React動画生成Node.jsテンプレートTypeScript

向いている人

配信そのものより、告知動画・ショート動画・デモ動画・切り抜きテンプレート生成を自動化したい人に向いています。

注意点

GitHub README と公式サイトの両方でライセンス条件が明記されています。個人や3人以下の小規模チームは入りやすいですが、人数や用途次第で会社向けライセンス確認が必要です。

新規プロジェクト

README が案内している最短入口です。

1. 1.Node.js を入れる
2. 2.npx create-video@latest
3. 3.テンプレートを選んでセットアップする
4. 4.プレビューしながらコンポーネントを編集する

AITuber運用向け

紹介動画や定型ショートを作る時の現実的な使い方です。

1. 1.会話ログや記事データを props として流し込む
2. 2.字幕・立ち絵・BGM を React コンポーネントで管理する
3. 3.同じテンプレートから複数本をバッチ生成する

サーバー / 自動化

公式サイトではローカルだけでなくサーバーや serverless でのレンダリングも前提にしています。

1. 1.まずはローカルでテンプレートを固める
2. 2.必要なら @remotion/player や Lambda 系構成を検討する
3. 3.商用運用前にライセンス条件を確認する

S

背景演出・画作り

### Shoost

VTuber向けの画作りに強い Windows 専用アプリです。アニメ的な合成や発光、リムライト、Spout 出力で見栄えを一気に上げやすいのが特徴です。

[GitHub](https://www.patreon.com/muro)[公式記事](https://www.patreon.com/posts/62585593)

WindowsSpoutOBSVSeeFace

向いている人

配信画面やPV用の一枚絵・短尺映像を、Live2D / VSeeFace / Unity 出力と組み合わせて雰囲気重視で整えたい人に向いています。

注意点

公開 GitHub README は見当たらず、確認できた一次情報は公式 Patreon の公開記事です。導入は Windows 限定かつ、ダウンロードは Patreon 支援者向けの導線になっています。

Windows 導入

公式公開記事から読み取れる最短導線です。

1. 1.Windows 環境を用意する
2. 2.Patreon の支援者向けダウンロードページから Shoost を取得する
3. 3.起動後は三層レイヤー前提で素材を配置して画を作る

OBS 連携

Shoost の強みである Spout 出力を使う流れです。

1. 1.Settings で Spout Capture を有効にする
2. 2.OBS 側にも対応プラグインを追加する
3. 3.UI を映さず Shoost の出力だけを取り込む

VSeeFace / Unity 素材活用

既存アバターソフトの出力を演出寄りに整える使い方です。

1. 1.VSeeFace のキャプチャや alpha 動画を Shoost 側へ取り込む
2. 2.Brightness / Rim Light / Flare / Diffusion などを調整する
3. 3.必要に応じて OBS や録画ソフトへ渡す

## ツール比較

![remotion-dev](https://www.aituber-now.com/_next/image?url=https%3A%2F%2Favatars.githubusercontent.com%2Fu%2F85344006%3Fv%3D4&w=3840&q=75)

動画生成

[Remotion](https://github.com/remotion-dev/remotion)

紹介動画・切り抜き・字幕動画をコードで量産したい人向け

Stars 44,531

Forks 3,000

2026年4月24日

![mindcraft-bots](https://www.aituber-now.com/_next/image?url=https%3A%2F%2Favatars.githubusercontent.com%2Fu%2F227438392%3Fv%3D4&w=3840&q=75)

ゲーム連携

[MindCraft](https://github.com/mindcraft-bots/mindcraft)

Minecraft上でAI botや企画配信を試したい人向け

Stars 5,126

Forks 772

2026年4月24日

![litagin02](https://www.aituber-now.com/_next/image?url=https%3A%2F%2Favatars.githubusercontent.com%2Fu%2F139731664%3Fv%3D4&w=3840&q=75)

音声合成

[Style-Bert-VITS2](https://github.com/litagin02/Style-Bert-VITS2)

日本語TTSを自前運用や学習まで含めて強化したい人向け

Stars 1,251

Forks 195

2025年12月7日

![uezo](https://www.aituber-now.com/_next/image?url=https%3A%2F%2Favatars.githubusercontent.com%2Fu%2F19625242%3Fv%3D4&w=3840&q=75)

Unity SDK

[ChatdollKit](https://github.com/uezo/ChatdollKit)

3Dモデルを会話エージェント化して外部制御まで伸ばしたい人向け

Stars 1,138

Forks 115

2026年3月11日

![tegnike](https://www.aituber-now.com/_next/image?url=https%3A%2F%2Favatars.githubusercontent.com%2Fu%2F35606144%3Fv%3D4&w=3840&q=75)

主力スターターキット

[AITuberKit](https://github.com/tegnike/aituber-kit)

ローカルLLM・Live2D・VRM・Dify・YouTube配信の横断導線

Stars 964

Forks 179

2026年3月26日

![pixiv](https://www.aituber-now.com/_next/image?url=https%3A%2F%2Favatars.githubusercontent.com%2Fu%2F1657867%3Fv%3D4&w=3840&q=75)

周辺OSS

[ChatVRM](https://github.com/pixiv/ChatVRM)

VRM会話UIの土台を自作したい人向け

Stars 838

Forks 269

2025年5月27日

![Aivis-Project](https://www.aituber-now.com/_next/image?url=https%3A%2F%2Favatars.githubusercontent.com%2Fu%2F162086347%3Fv%3D4&w=3840&q=75)

音声合成

[AivisSpeech](https://github.com/Aivis-Project/AivisSpeech)

ローカル中心で自然な日本語TTSをすぐ使いたい人向け

Stars 432

Forks 25

2026年4月22日

![rotejin](https://www.aituber-now.com/_next/image?url=https%3A%2F%2Favatars.githubusercontent.com%2Fu%2F128216944%3Fv%3D4&w=3840&q=75)

口パク・表情

[MotionPNGTuber](https://github.com/rotejin/MotionPNGTuber)

動画ベースで髪揺れや表情差分を見せたい人向け

Stars 294

Forks 48

2026年4月13日

![AIVTDevPKevin](https://www.aituber-now.com/_next/image?url=https%3A%2F%2Favatars.githubusercontent.com%2Fu%2F161304793%3Fv%3D4&w=3840&q=75)

周辺OSS

[AI-VTuber-System](https://github.com/AIVTDevPKevin/AI-VTuber-System)

Python寄りに自作したい開発者向け

Stars 118

Forks 27

2026年2月8日

![shinshin86](https://www.aituber-now.com/_next/image?url=https%3A%2F%2Favatars.githubusercontent.com%2Fu%2F8216064%3Fv%3D4&w=3840&q=75)

配信ツールキット

[AITuber OnAir](https://github.com/shinshin86/aituber-onair)

配信フローを薄く保ったまま YouTube / Twitch に出したい人向け

Stars 52

Forks 1

2026年4月23日

## npm パッケージ更新

[![AITuber OnAir](https://www.aituber-now.com/_next/image?url=https%3A%2F%2Favatars.githubusercontent.com%2Fu%2F8216064%3Fv%3D4&w=3840&q=75)AITuber OnAir Core0.25.5Core library for AITuber OnAir providing voice synthesis and chat processing](https://www.npmjs.com/package/%40aituber-onair%2Fcore)[![AITuber OnAir](https://www.aituber-now.com/_next/image?url=https%3A%2F%2Favatars.githubusercontent.com%2Fu%2F8216064%3Fv%3D4&w=3840&q=75)AITuber OnAir Voice0.14.0Voice synthesis library for AITuber OnAir](https://www.npmjs.com/package/%40aituber-onair%2Fvoice)

## 更新ログ

[![Remotion](https://www.aituber-now.com/_next/image?url=https%3A%2F%2Favatars.githubusercontent.com%2Fu%2F85344006%3Fv%3D4&w=3840&q=75)GitHub CommitsAITuber OnAir 最新コミット2026年4月23日](https://github.com/shinshin86/aituber-onair/commit/13088a7cd7824955b6129153c26d4abe89b457ae)[![MindCraft](https://www.aituber-now.com/_next/image?url=https%3A%2F%2Favatars.githubusercontent.com%2Fu%2F227438392%3Fv%3D4&w=3840&q=75)GitHub ReleasesAITuber OnAir 最新リリース2026年4月22日](https://github.com/shinshin86/aituber-onair/releases/tag/%40aituber-onair/core%400.25.5)[![Style-Bert-VITS2](https://www.aituber-now.com/_next/image?url=https%3A%2F%2Favatars.githubusercontent.com%2Fu%2F139731664%3Fv%3D4&w=3840&q=75)npm RegistryAITuber OnAir Core npm 公開2026年4月22日](https://www.npmjs.com/package/%40aituber-onair%2Fcore)[![ChatdollKit](https://www.aituber-now.com/_next/image?url=https%3A%2F%2Favatars.githubusercontent.com%2Fu%2F19625242%3Fv%3D4&w=3840&q=75)npm RegistryAITuber OnAir Voice npm 公開2026年4月21日](https://www.npmjs.com/package/%40aituber-onair%2Fvoice)[![AITuberKit](https://www.aituber-now.com/_next/image?url=https%3A%2F%2Favatars.githubusercontent.com%2Fu%2F35606144%3Fv%3D4&w=3840&q=75)GitHub CommitsAITuberKit 最新コミット2026年3月15日](https://github.com/tegnike/aituber-kit/commit/abe1f7954e6c6ddd8afcc44ccbf9df7d408a4f62)[![ChatVRM](https://www.aituber-now.com/_next/image?url=https%3A%2F%2Favatars.githubusercontent.com%2Fu%2F1657867%3Fv%3D4&w=3840&q=75)GitHub ReleasesAITuberKit 最新リリース2026年3月15日](https://github.com/tegnike/aituber-kit/releases/tag/v2.43.2)