MMD の「vsqによるリップシンク」

正月休み*1は結局、MikuMikuDance でなく VOCALOID2 Editor 弄ってるだけで終わっちゃったよ。MMD に読み込ませるための VSQ 作ってたので MMD 用のデータ作っていたのではありますが。

んで、それやってて気づいた Tips。

  • 音符どうしの間を開けるとそこで口パクパクしてしまう

VOCALOID2 作成テクニック伝 〜音程・歌詞の入力から自然感を出すテクニックまで〜
普通に VOCALOID データ打ち込む時には発音を明瞭にするねらい等で音符の間を開けることが多いと思うのですが、それやると MMD で VSQ を読み込んだ時その間隙でいちいち口をパクパクしてくれてしまいます。

出てきたデータを見るに、2フレーム=1/15 秒で口を開けたり閉じたりしているみたいなので、それより短い間隔でないと口が繋がらない感じ。



まだベロシティやダイナミクス等パラメータと口の開度の関連は調べていないですが……いずれにしろ、大雑把に口パクしてればいい、という以上のことをするには MMD に持っていった後に修正するしかなさそうです。(アップになる所だけ手を入れればいいとは思いますが)

あと、せっかくモデルに表情「え」が有っても標準の初音ミクに「え」が無いのに合わせているせいだか「え」を使ってくれない

――というのはよく知られている問題ですね。どうせなら VSQ を読み込む対象のモデルに応じて「え」を使う/使わないを自動判別してくれるといいのですが……。

*1:今日まで休みだった