VTuberスタッフ

VTuberの仕組みとは?アバターが動く技術をわかりやすく解説

vtuber-mechanism

VTuberの配信を見ていると、2Dや3Dのキャラクターが表情豊かに動き、声を出し、視聴者とやり取りしている。あの動きがどう実現されているのか気になって調べると、関係する技術が思った以上に複数あって、全体像をつかみにくいのが現状です。

実はアバターが動くという一言で済む話ではなく、顔認識・データ変換・リアルタイム描画・音声処理・配信エンコードという複数の技術が同時に連動しています。どれか1つが欠けても、スムーズな配信は成立しません。

VTuber市場は2023年度に約800億円規模に達し(矢野経済研究所調べ)、2025年度には1,260億円に到達すると予測されています。制作を支える技術を理解することは、VTuberとして活動する場合にも、裏方として関わる場合にも、出発点として役立ちます。

この記事の内容

VTuberのアバターの仕組み

VTuberのアバターには2Dと3Dの2種類があり、それぞれ技術基盤やデータ構造が異なります。配信スタイルや予算に応じて使い分けられる構成です。

2Dアバター(Live2D)

2Dアバターは、1枚のイラストに動きを与えるLive2Dという技術が基盤です。イラストをパーツごとにレイヤー分けし、各パーツにメッシュ(ポリゴンの網)を張ったうえで、パラメータとの対応づけ(リギング)を行います。

メッシュの変形パターンをパラメータに紐づけることで、数値の変化に応じてイラストが変形します。

リギングが完了すると、目の開閉や口の開き具合、頭の傾きなどのパラメータを操作するだけでイラストが滑らかに動くようになります。3Dに比べて制作コストが抑えられるため個人VTuberにも普及しており、パーツ単位の表現力が高い点がLive2Dの特徴です。

3Dアバター

3DアバターはBlender、Maya、VRoid Studioなどの3DCGソフトで構築されます。ポリゴンメッシュでキャラクターの形状を作り、テクスチャで色や質感を設定したあと、ボーン(骨格)を内部に配置してウェイトペイントで各部位への影響度を定義します。

ボーンが回転や移動すると、ウェイトに応じて周囲のメッシュが変形する構造です。

完成した3DモデルはVRM形式などで書き出され、Unity上で動作確認やシェーダー調整が行われます。全身を360度あらゆる角度から表現でき、ダンスやライブイベントにも対応可能です。

制作には専門的な知識と時間が必要ですが、表現の幅は2Dよりも広がります。

表情が動く仕組み

VTuberの表情は、カメラで配信者の顔を読み取り、その情報をアバターに反映させることで再現できます。顔の検出からデータの変換、モデルへの反映まで、一連の処理がリアルタイムで走っています。

フェイストラッキング

Webカメラやスマートフォンのカメラで配信者の表情を読み取る技術がフェイストラッキングです。カメラに映った顔からAI顔認識が目、口、眉、鼻などの特徴点(ランドマーク)を検出し、その位置関係の変化を数値データとして取得できます。

iPhoneのTrueDepthカメラでは赤外線による3D深度センシングが使えるため、通常のWebカメラよりも高精度な表情検出が可能です。代表的なソフトにはVTube StudioやiFacialMocapなどがあり、スマートフォン1台でも配信を始められるほど導入のハードルが下がっています。

モデルへのデータ反映

フェイストラッキングで取得した数値データは、アバターの動きを制御するパラメータに変換されます。Live2Dでは目の開閉値や口の開き幅、頭の回転角度といったパラメータがメッシュの変形量に対応しており、数値の変化に応じてイラストのパーツをリアルタイムで動かすことができます。

3Dアバターでは、取得したデータがブレンドシェイプやボーン回転値に変換されます。ブレンドシェイプとは表情ごとの頂点移動パターンのことで、笑顔のブレンドシェイプが50%適用されると口角や目尻が笑顔方向に半分だけ動く構造です。

この変換処理が毎秒30〜60回実行されることで、配信者の表情がアバターに滑らかに反映される。

全身トラッキングの方式

全身の動きを再現するには、表情トラッキングとは別の技術が必要です。使用する機材や予算に応じて複数の方式があり、それぞれ検出原理や精度に違いがあります。

光学式モーションキャプチャ

光学式モーションキャプチャは、複数台のカメラと身体に装着した反射マーカーを使って全身の動きを記録する方式です。各カメラがマーカーの位置を撮影し、三角測量の原理で3次元空間上の座標を割り出すことができます。

マーカーの数は数十個に及び、指先や表情まで細かく取得できる精度の高さが特徴です。

カバー株式会社(ホロライブ運営)やANYCOLOR株式会社(にじさんじ運営)のライブイベントでは、光学式モーションキャプチャが使われています。専用スタジオと高額な機材が必要なため個人での導入は難しいですが、再現精度の高さからプロのライブ制作では広く採用されています。

慣性式モーションキャプチャ

慣性式モーションキャプチャは、身体の各部位にIMUセンサー(加速度・ジャイロ・地磁気)を装着して動きを検出する方式です。カメラを使わないため設置場所を選ばず、屋外や狭い部屋でも全身トラッキングが行えます。

Perception NeuronやNoitomなどの製品が広く使われており、選択肢は豊富です。

光学式と比較すると、位置精度ではやや劣るものの機材費が大幅に抑えられる点が利点です。センサーのドリフト(時間経過で位置がずれる現象)への対策として、定期的なキャリブレーションが必要となります。

コストと導入の手軽さから、個人VTuberや小規模スタジオへの普及が進んだ。

VRトラッキング

VRトラッキングは、VRヘッドセットとコントローラーで頭と両手の位置を取得する方法です。Meta QuestやHTC Viveなどのデバイスに搭載されたセンサーが3次元空間での位置と回転を検出し、VTuberモデルの上半身を自然に動かせます。

腰や足にトラッカーを追加すればフルボディトラッキングも実現可能です。モーションキャプチャ専用機材と比べて費用が抑えられる点から、個人VTuberの間で普及が進みました。

VMCプロトコルやOSCといった通信規格を通じて、VRアプリから配信ソフトへモーションデータを送る仕組みも整っています。

声に使われる技術

VTuberの声に関わる技術には、音声と口の動きを連動させるリップシンクと、声質そのものを変換するボイスチェンジャーがあります。いずれも配信中にリアルタイムで処理される点が共通しています。

リップシンク

リップシンクは、音声入力に連動してアバターの口の動きを制御する技術です。マイクから入力された音声の音量や周波数帯域を解析し、母音の種類(あ・い・う・え・お)を判定して対応する口の形をアバターに適用できます。

フェイストラッキングがカメラ映像を入力とするのに対し、リップシンクは音声を入力とする点が異なります。

VTube StudioやVSeeFaceなどの主要なトラッキングソフトでは、カメラベースの口認識とマイクベースのリップシンクを切り替えて使用可能です。カメラの精度が低い環境や、マスク着用時など口元が映らない状況ではリップシンクが有効な代替手段となっており、両方を併用して精度を高める設定もあります。

ボイスチェンジャー

ボイスチェンジャーは、マイクに入力された声のピッチやフォルマントをリアルタイムで変換する技術です。VoicemodはDSP処理でピッチシフトとフォルマント変換を行い、RVC(Retrieval-based Voice Conversion)はAIモデルが特定の声質パターンを学習して入力音声を別の声に変換できます。

VTuber配信では性別を超えた声質での活動にも活用されています。

ボイスチェンジャーの出力は仮想オーディオデバイスとして扱われ、配信ソフト側で入力デバイスを仮想デバイスに切り替えるだけで変換後の声を配信に乗せることができます。RVCなどのAI方式は変換精度が高い反面、処理負荷が大きくGPUの性能が求められるため、PCスペックとのバランスを考慮する必要があります。

リアルタイム配信の環境

アバター制作とトラッキング技術に加えて、映像と音声をリアルタイムで配信するための技術基盤が必要です。使用するデバイスや構成に応じて、配信のアーキテクチャが異なります。

映像配信の構成

PC配信ではVTube StudioやVSeeFaceなどのトラッキングソフトでアバターを動かし、仮想カメラ経由でOBS Studioに映像を渡して配信プラットフォームへ送ることができます。複数のソフトを組み合わせるパイプライン構成のため、カメラアングルの切り替えや画面エフェクトなどの演出に対応でき、ゲーミングPC程度のスペック(GPU: GTX 1060以上、メモリ: 16GB以上推奨)が必要になります。

スマホ配信ではREALITYやカスタムキャストなどのアプリが、表情検出・アバター描画・配信を1つのアプリ内で完結できます。追加機材なしで始められる手軽さがありますが、上半身のみの表示に限られることが多く、表情のバリエーションもPC配信より限定的です。

音声処理の構成

VTuber配信の音声は、マイクからの入力をリアルタイムで加工してから配信に送るパイプラインで処理されます。OBS Studioのフィルター機能でノイズゲートやコンプレッサーをリアルタイムに適用し、環境音の除去や音量の均一化を行うのが基本の構成です。

配信ではマイク音声に加えてゲーム音声やBGMなど複数の音源を扱うため、OBS内蔵のオーディオミキサーで各トラックの音量を個別に調整して合成します。視聴者に届く最終的な音声バランスを整えたうえで、AACなどのコーデックでエンコードしてから配信プラットフォームへ届けられます。

VTuberを始めるのに必要なもの

仕組みを理解した次の疑問は自分でも始められるのかでしょう。予算や目的に応じて、始め方にはいくつかの選択肢があります。

スマホだけで始める場合

最も手軽なのはスマートフォン1台で始める方法です。REALITYやカスタムキャストなどのアプリを使えば、アバター作成からフェイストラッキング、配信までをアプリ内で完結でき、追加費用もかかりません。

まずVTuber配信を体験してみたい場合に向いています。

ただし、アバターのカスタマイズ性やトラッキング精度はPC環境よりも限られます。上半身のみの表示になることが多く、配信中の演出やBGMの調整にも制約があります。

活動を本格化させる段階でPC環境への移行を検討する人も一定数います。

PCで本格的に始める場合

PC環境ではアバター制作・トラッキング・配信を別々のソフトで組み合わせるため、自由度の高い配信ができるようになります。最低限必要なものはGPU搭載のPC、Webカメラ、マイクの3点で、ソフトウェアはVTube Studio(トラッキング用)とOBS Studio(配信用)が主流です。

2Dアバターの場合はLive2Dモデルの準備も必要になります。

3DアバターはVRoid Studioを使えば無料で作成することもでき、全身を動かしたい場合はVRヘッドセットやトラッカーを追加で揃えていくことになります。VTuber制作を支える裏方の仕事に興味がある方はVTuberスタッフとは?仕事内容・職種・年収・なり方を解説も参考にしてください。

まとめ

VTuberが動いて見える裏側には、アバターモデル・トラッキング・リップシンク・配信パイプラインという4つの層が並列で走っています。どれか1つが止まれば配信は崩れるため、技術の全体像を把握しておくことは、活動者としても制作スタッフとしても判断の精度を上げます。

スマホ1台のアプリ完結から、光学式モーションキャプチャスタジオまで、始め方の幅は広いです。まず手元の環境で試して、表現の限界を感じた段階で機材を追加していくのが無理のない順序です。

VTuber業界でのキャリアを考えている方は、自分がアバター制作・トラッキング設定・配信エンジニアリングのどの領域に関心があるかを整理すると、求人を選ぶときの軸が決まります。職種の全体像についてはVTuberスタッフとは?仕事内容・職種・年収・なり方を解説で詳しく解説しています。

チケミー
チケミーキャリア
運営者情報 ›