FaceRig

【FaceRig】FaceRigのアニメーションデータ(.rpl)をLive2Dへ移行する方法

facerig-rpl-to-live2d-motio3Json

ガネーシャさん(@Ganeesya)の作成されたFaceRigRplToLive2DMotio3JsonでFaceRigのモーションデータをLive2Dへ持っていってみました!
そのやり方の紹介です。

※FaceRigを使うのでWindows想定です。

FaceRigのモーションデータを用意

  • FaceRigでLive2Dに持っていきたいアニメーションデータをいくつか保存します。(※かならず複数個作成すること)

*出力が終わったら一つのフォルダ(今回はtest)に格納

Pythonのインストール

  • まずPythonのインストールをします。下記のURLからダウンロード

https://www.python.org/downloads/

  • インストールはカスタム(Customize installation)を選択します
  • インストール先をC:\Pythonに ※デフォルトだと深い階層になってコマンドが指定しにくいので

FaceRigRplToLive2DMotio3Jsonのダウンロードと設定

  • 下記のULRからデータをダウンロード

https://github.com/Ganeesya/FaceRigRplToLive2DMotio3Json

  • FaceRigRPL.pyを適当なエディタで開きます

  • folderPath = “Set Your rpl files folder path.”と書かれている記述を探して下記の様に先のrplの格納されているフォルダのパスを入力します

folderPath = "C:\\Users\\<ユーザー名>\\Desktop\\test"

※パスのバックスラッシュは(\)は2つにしておくこと

plotlyエラーがでる場合

ModuleNotFoundError: No module named 'plotly'

とかエラーが出る場合は

#import plotly.offline as po
#import plotly.graph_objs as go

を#をつけてコメントアウトする

スクリプトの実行

  • Windowsの検索から「cmd」とうち、コマンドプロンプトを起動します。

  • Pythonのディレクトリへ移動

cd C:\Python
  • FaceRigRPL.pyを実行

pythonのあとにFaceRigRPL.pyのパスを入力して実行

python C:\Users\<ユーザー名>\Desktop\FaceRigRplToLive2DMotio3Json-master\FaceRigRPL\FaceRigRPL.py

とか

‘python’ は、内部コマンドまたは外部コマンド、
操作可能なプログラムまたはバッチ ファイルとして認識されていません。

と出る場合はパスを全部書く

C:\Users\<ユーザー名>\Desktop\FaceRigRplToLive2DMotio3Json-master\FaceRigRPL>C:\Python\python C:\Users\min\Desktop\FaceRigRplToLive2DMotio3Json-master\FaceRigRPL\FaceRigRPL.py

上記のような感じでendが表示されれば無事完了です。

  • 変換後のデータを確認します

.csvとパラメーターの大文字小文字だけが違う.jsonが追加されています

Live2D Viewerで確認

mocを入れてモデルを表示した後、01.rplID2.motion3.jsonもドラッグ&ドロップします。

アニメーションの再生を確認します。

Live2D Animatorでアニメーションをインポート

  • Live2Dを立ち上げAnimatorに切り替えて、モデルをいれます。

  • タイムラインのモデル名を右クリックしてモーションを読み込みを選択します

json(01.rplID2.motion3.json)を選択すればアニメーションが読み込まれます

※FPSが変わっていることがあるので、ちゃんと確認してからインポートすることをおすすめします。

mtnに変換する方法

ちなみに2系で使いたい場合は

ファイル>組込み用ファイル書き出し>モーションファイルの書き出しから

2.1形式(mtn)として書き出しを選択すればmtnに変換して出力できます。

備考

バイナリを解析することはデザイナーにとっては難しいので、このツールは非常に助かります!

これでFaceRigのアニメーションを手作業で修正できるので、よりクオリティの高い表現ができる可能性があります。

ちなみに複数の.rplを用意したのは、なかの余計な記述を削除するために差分をみてるようなので、かならず複数個入れた状態でコンバートするとより精度の高いコンバートができます。

動画

上記の技術を生かした動画を作成してみました。

体の動きだけFaceRigでつけて、アニメーション情報をLive2Dアニメーターで移行して目パチと口パクを付けてています。

フェイスリグに関する記事をすべて掲載!
バーチャルYouTuberの参考紹介

参考記事

【VTuber】バーチャルYouTuber制作に関連する記事まとめ16選! VTuberを作成した時のノウハウをまとめました。 Live2Dモデル制作 土日でバーチャルYouTuberを作成する...
バーチャルYouTuber制作に関する記事をすべて掲載!

おすすめ機材

created by Rinker
COMON
¥510
(2019/01/19 15:16:24時点 Amazon調べ-詳細)

マイクはいろいろ試して、これが一番おすすめです。
東雲めぐちゃんの収録で使われている機材です。
声だけ音声を拾ってくれます。最大の特徴は頭を動かしても、位置が変わらないので音が撮りやすく、ヘッドマウントディスプレイをつけたままでも装着可なところです。

created by Rinker
ロジクール
¥7,950
(2019/01/19 15:16:25時点 Amazon調べ-詳細)

数少ないフルHD(1920×1080)対応機種。多段可変でカメラ位置の調整が用意。三脚もつけることが可能。
さらに背景をリアルタイムで切り抜いてくれる機能もあります。トラッキングの精度を最大限確保したいならこのカメラがおすすめです。

FaceRigなどでVTuberやるなら、リープモーションもつけて手を動かすとより表現が増すのでおすすめです。

created by Rinker
ヤマハ(Yamaha)
¥15,500
(2019/01/19 11:23:28時点 Amazon調べ-詳細)

綺麗な音で配信するにはオーディオインターフェイスが必須です!

本気でバ美肉するなら手に入れたい機材です。
声を変換にできるだけでなく、ハードウェアなので音ズレなくリアルタイムに声を反映できます。

ABOUT ME
すいみん
東京在住。デザイナー寄りのテクニカルデザイナー。 ブログは技術検証の備忘録として書いています。