★お知らせ(2023/12/27)
いつもLive2D公式コミュニティをご利用いただき誠にありがとうございます。
本コミュニティは2023年12月27日 11:00をもって閉鎖いたしました。
今後の運営はすべて新Live2D公式クリエイターズフォーラムに移行します。
閉鎖に伴い、以下機能は利用不可となります。
・アカウントの新規作成
・トピック投稿、返信
たくさんのご利用誠にありがとうございました。
新Live2D公式クリエイターズフォーラムは以下バナーよりご利用いただけます。
なお、本コミュニティに投稿されたトピックはすべて残りますが、今後削除する可能性がございますので予めご了承ください。
閉鎖に関するお問い合わせにつきましてはLive2D公式クリエイターズフォーラムへご連絡ください。
いつもLive2D公式コミュニティをご利用いただき誠にありがとうございます。
本コミュニティは2023年12月27日 11:00をもって閉鎖いたしました。
今後の運営はすべて新Live2D公式クリエイターズフォーラムに移行します。
閉鎖に伴い、以下機能は利用不可となります。
・アカウントの新規作成
・トピック投稿、返信
たくさんのご利用誠にありがとうございました。
新Live2D公式クリエイターズフォーラムは以下バナーよりご利用いただけます。
なお、本コミュニティに投稿されたトピックはすべて残りますが、今後削除する可能性がございますので予めご了承ください。
閉鎖に関するお問い合わせにつきましてはLive2D公式クリエイターズフォーラムへご連絡ください。
【質問】棒読みちゃんの音声で口パクするキャラを動かす方法
LIVE配信を想定して、「Facerigで顔をトラッキングするキャラ」と別に、「棒読みちゃんの音声で動くキャラ」も使いたいと考えています。
モデルまでは作ったのですが、どのように動かしていいのかわかりません。
どなたかわかる方いらっしゃったらご教授ください。
ネットで調べて、Cubism Viewerを使用した下記のサイトを参考にしようとしましたが、
途中にある『続いて、Live▶リップシンク▶追加 を行います。』の箇所で、あるはずの『LIVE』のタブがありませんでした。
▼参考:hatyati.jp/live2d-live/
また、Facerigのリップシンクを使用する方法も検討しましたが、「顔をトラッキングして使用するキャラ」も使いたいため、
2キャラを同時に表示させ、一方をトラッキング、もう一方をリップシンク...などと運用できるのか疑問です。
サイトで調べても2016年や2017年の記事しか見当たらず、今のCubism 4 Editor などで運用できる方法があればと思い投稿いたしました。
ざっくりとした内容で大変申し訳ないのですが、なにとぞよろしくお願いいたします。
モデルまでは作ったのですが、どのように動かしていいのかわかりません。
どなたかわかる方いらっしゃったらご教授ください。
ネットで調べて、Cubism Viewerを使用した下記のサイトを参考にしようとしましたが、
途中にある『続いて、Live▶リップシンク▶追加 を行います。』の箇所で、あるはずの『LIVE』のタブがありませんでした。
▼参考:hatyati.jp/live2d-live/
また、Facerigのリップシンクを使用する方法も検討しましたが、「顔をトラッキングして使用するキャラ」も使いたいため、
2キャラを同時に表示させ、一方をトラッキング、もう一方をリップシンク...などと運用できるのか疑問です。
サイトで調べても2016年や2017年の記事しか見当たらず、今のCubism 4 Editor などで運用できる方法があればと思い投稿いたしました。
ざっくりとした内容で大変申し訳ないのですが、なにとぞよろしくお願いいたします。
0
コメント
リップシンクの件ですが、確かに過去のLive2D Viewer2.0ではリップシンクの項目は個別に設定できましたが、
現在のLive2D Cubism Viewer 3.0ではその項目は無くなっているようです
Cubism 3~でのリップシンクの設定は、過去のViewerで設定→ファイルを出力する形式から、
[モデルワークスペース]と[アニメーションワークスペース]各々の設定する方法に変更されたようですね
詳しく方法は「BGMや音声を使用したシーンの作成」を参考にしてください
上記の方法は、固定のアニメーションにWAVの音声データーを張り付け、リップシンクを適用、動かす方法です
(自動的に口の開閉を設定した後、変な個所を修正できるといったメリットがあります)
なので、LIVE配信を想定したマイクで喋りリアルタイムでリップシンクがチェックできる機能は
現時点、LIVE2D側のツールでは無い様に思えます
よってLIVE配信始めるにあたって、必ず設定するツール(facerig、unity等)があると思うのですが、
ご要望の機能は別ツールとの相談となりますかね?
2キャラを同時に表示させ調整というのも、なかなかリアルタイムでやるというのも難しいですが、
できる事といたしましたら、あらかじめリップシンクを適用したモーションモデルを用意し、それを再生
別のモデルで一人アフレコの様にやるのが現実的でしょうか?
ひとまず、私のわかる範囲ではありますが、お力になれれば幸いです