Cubism 製品のマニュアル・チュートリアルはこちら
 
Cubism Editorマニュアル    Cubism Editorチュートリアル    Cubism SDKマニュアル    Cubism SDKチュートリアル

【質問】棒読みちゃんの音声で口パクするキャラを動かす方法

05/17編集されました Cubism 4 Editor
LIVE配信を想定して、「Facerigで顔をトラッキングするキャラ」と別に、「棒読みちゃんの音声で動くキャラ」も使いたいと考えています。
モデルまでは作ったのですが、どのように動かしていいのかわかりません。
どなたかわかる方いらっしゃったらご教授ください。

ネットで調べて、Cubism Viewerを使用した下記のサイトを参考にしようとしましたが、
途中にある『続いて、Live▶リップシンク▶追加 を行います。』の箇所で、あるはずの『LIVE』のタブがありませんでした。
▼参考:hatyati.jp/live2d-live/

また、Facerigのリップシンクを使用する方法も検討しましたが、「顔をトラッキングして使用するキャラ」も使いたいため、
2キャラを同時に表示させ、一方をトラッキング、もう一方をリップシンク...などと運用できるのか疑問です。

サイトで調べても2016年や2017年の記事しか見当たらず、今のCubism 4 Editor などで運用できる方法があればと思い投稿いたしました。
ざっくりとした内容で大変申し訳ないのですが、なにとぞよろしくお願いいたします。
タグ付けされた:

コメント

  • 初めましてこんにちわ
    リップシンクの件ですが、確かに過去のLive2D Viewer2.0ではリップシンクの項目は個別に設定できましたが、
    現在のLive2D Cubism Viewer 3.0ではその項目は無くなっているようです

    Cubism 3~でのリップシンクの設定は、過去のViewerで設定→ファイルを出力する形式から、
    [モデルワークスペース]と[アニメーションワークスペース]各々の設定する方法に変更されたようですね
    詳しく方法は「BGMや音声を使用したシーンの作成」を参考にしてください

    上記の方法は、固定のアニメーションにWAVの音声データーを張り付け、リップシンクを適用、動かす方法です
    (自動的に口の開閉を設定した後、変な個所を修正できるといったメリットがあります)
    なので、LIVE配信を想定したマイクで喋りリアルタイムでリップシンクがチェックできる機能は
    現時点、LIVE2D側のツールでは無い様に思えます

    よってLIVE配信始めるにあたって、必ず設定するツール(facerig、unity等)があると思うのですが、
    ご要望の機能は別ツールとの相談となりますかね?

    2キャラを同時に表示させ調整というのも、なかなかリアルタイムでやるというのも難しいですが、
    できる事といたしましたら、あらかじめリップシンクを適用したモーションモデルを用意し、それを再生
    別のモデルで一人アフレコの様にやるのが現実的でしょうか?

    ひとまず、私のわかる範囲ではありますが、お力になれれば幸いです
コメントするにはサインインまたは登録して下さい。