Face Mojoの使用例をYoutubeにアップしました
YoutubeにアップしていたFace Mojoに、チュートリアルを作ってほしいというリクエストがありました。
そこで、勉強もかねて使用例を作り、本日アップしました。
使用した機材およびソフトは、iPhoneXR、iFacialMocap、Face Mojo for Genesis8 Femaleです。
今回のチュートリアルは、単に表情がつけるテストから一歩進めて、実用的な使い方を説明しました。
最初のポイントは、キャリブレーション対策です。
iFacialMocapでキャプチャーすると、現時点の表情データが記録されてしまい、デフォルトの表情になりません。
iClone7のLiveFaceでは、キャリブレーション機能があり、現在の表情をゼロとして認識できます。
iFacialMocapでは、頭のローテーションのキャリブレーションはありますが、表情はできないようです。
そこで、一度、DAZ Studioに取り込み、デフォルトの表情に戻すモーフを作成しました。
単に、表情のついたobjをエクスポートし、差分モーフを作り、マイナス100にするだけです。
いちいちこの処理をするのも面倒なので、できたらソフト側で対応してほしいなあと思います。(^_^;)
次のポイントは、頭の動きと表情の調整です。
Face Mojoではモーキャプした頭の動きを首や胴体に自動的に振り分けしています。
自然に見えるようにそれの配分を調整するとよいです。
また、表情が思ったとおりに動くように、表情の強さを項目ごとに調整することが必要です。
この例では、口を突き出す動作を50%にしています。
ちなみに、Mayumiさんの口の動きは、実は「今日は、とても、いい天気です。」と言ってます。(^_^;)
iFacialMocapでは、音声も同時に録音してくれるので、DAZ Studioで音声を入れることもできます。
VOICEROIDにしゃべらせて、あとで追加するものよいですね。
最後のポイントは、ほかのアニメーションとの組み合わせについてです。
私の環境では、Face Mojoでアニメーションを作りシーンを保存しても、再度ロードした時、口などが上手く動きません。
これは、バグなのかよくわからないですが、直るとよいのですが・・・。
いろいろ試してみて、保存については、animate2でaniBlockを作って保存できることがわかりました。
aniBlockができると、他のアニメーションと組み合わせることが容易になります。
この使用では、単に最初と途中にポーズをつけて、表情とともに動かしてみました。^_^
iRayを使って720Pでレンダリングしてみましたが、260フレームくらいを1時間半くらいかかりました。
アップした動画は、こちらです。
« DAZキャラを作成する(番外編) | トップページ | iCloneを使うには »
「DAZ Studio」カテゴリの記事
- Maya Redshiftマテリアルに変更する その3(2022.03.06)
- Maya Redshiftマテリアルに変更する その2(2022.03.06)
- Maya Redshiftマテリアルに変更する その1(2022.03.05)
- MayaとRedshiftでHDRIを使う(2022.03.05)
- MayaとRedshiftでレンダリング(2022.02.21)
コメント