オーディオドリブン フェーシャル アニメーション ワークフロー

 
 
 

キャラクタ フェースと Voice デバイスを使用すると、声を表すオーディオ ファイルや生のオーディオ入力に合わせてキャラクタが「話す」様子をセット アップできます。Voice デバイスを通じて、オーディオ入力の音素がキャラクタの表情を動かします。

オーディオドリブン フェーシャル アニメーション ワークフロー

オーディオ データを使って表情を動かすには:

  1. 形状やクラスタ形状の設定されたヘッド モデルをロードします。

    ヘッド モデルの形状は、オーディオ入力に合わせてキャラクタが伝える音素の数に適した形状である必要があります。また、Voice デバイスのサウンド パラメータに合致している必要もあります。「音素シェイプ」も参照してください。

  2. キャラクタ フェースをシーンに追加します。「キャラクタ フェースを追加する」を参照してください。
  3. Character Face Definition ペインで、音素ごとのカスタム エクスプレッションを追加したら、ヘッド モデル用に作成した音素シェイプをこれらのカスタム エクスプレッションにマップします。
  4. キャラクタ フェースを Voice デバイスに関連付けます。「キャラクタ フェースを Voice デバイスに関連付ける」を参照してください。
  5. Voice デバイス設定で、サウンド パラメータまたは音素音を追加します。「サウンド パラメータを追加する」を参照してください。

    追加のサウンド パラメータ(音素音)を Voice デバイスに追加すると、カスタム エクスプレッションが自動的に Expressions ペインに表示されます。

    注:

    Voice デバイスによって動くれるフェーシャル アニメーションを微調整するためには、自動的に追加されたオペレータの値を変更、特別なオペレータの追加、またはその他のデバイスを追加して表情をトリガできます。