新しいLive2D公式コミュニティ(日本向け)が公開されました!
ぜひご利用ください!
Live2D公式コミュニティ

■このコミュニティの今後について
このコミュニティ(forum.live2d.com)につきましては、しばらくの間新コミュニティと並行して運営しますが、2023年夏ごろを目処に方針を決定する予定です。
(2022/12/27追記 2022年内を目処に閉鎖 から変更しております)
内容については決定次第お知らせいたします。
海外向けコミュニティについては変更ございません。
Live2Dに関するユーザーのみなさま同士の交流・ご質問・不具合の報告・提案・要望などについて是非お寄せください。
※Live2D公式スタッフからの発言や回答については確約できないことを予めご了承ください。

Live2D ヘルプ

Cubism Editorダウンロード / 動作環境
Cubism SDKダウンロード / 対応表
Cubism 製品利用ライセンス(SDK含)

Cubism 製品のライセンスについてのお問い合わせはこちら
nizima 及び nizima 製品についてのお問い合わせはこちら
【各最新OSの対応状況について】
Cubism Editorは 4.1.02 正式版以降でWindows 11 及び macOS Monterey に対応しております。ぜひ最新版をご利用ください。
※macOSをお使いの方でOSアップデートする際は必ずCubism Editorのライセンスを解除してください。
Cubism EditorをインストールしているmacOSをアップグレードしたい
Cubism SDKについては各SDKのREADMEまたはNOTICEをご確認ください。

【Mac各機種への対応状況について】
現在、Cubism EditorはApple M1チップ搭載機種には対応しておりません。
詳細は 動作環境 をご参照ください。
関連するお問い合わせへの対応はこの文章をもって代えさせていただきます。
Cubism 製品のマニュアル・チュートリアルはこちら
 
Cubism Editorマニュアル    Cubism Editorチュートリアル    Cubism SDKマニュアル    Cubism SDKチュートリアル

【質問】棒読みちゃんの音声で口パクするキャラを動かす方法

編集済: 5月 2020 Cubism 4 Editor
LIVE配信を想定して、「Facerigで顔をトラッキングするキャラ」と別に、「棒読みちゃんの音声で動くキャラ」も使いたいと考えています。
モデルまでは作ったのですが、どのように動かしていいのかわかりません。
どなたかわかる方いらっしゃったらご教授ください。

ネットで調べて、Cubism Viewerを使用した下記のサイトを参考にしようとしましたが、
途中にある『続いて、Live▶リップシンク▶追加 を行います。』の箇所で、あるはずの『LIVE』のタブがありませんでした。
▼参考:hatyati.jp/live2d-live/

また、Facerigのリップシンクを使用する方法も検討しましたが、「顔をトラッキングして使用するキャラ」も使いたいため、
2キャラを同時に表示させ、一方をトラッキング、もう一方をリップシンク...などと運用できるのか疑問です。

サイトで調べても2016年や2017年の記事しか見当たらず、今のCubism 4 Editor などで運用できる方法があればと思い投稿いたしました。
ざっくりとした内容で大変申し訳ないのですが、なにとぞよろしくお願いいたします。
タグ付けされた:

コメント

  • 初めましてこんにちわ
    リップシンクの件ですが、確かに過去のLive2D Viewer2.0ではリップシンクの項目は個別に設定できましたが、
    現在のLive2D Cubism Viewer 3.0ではその項目は無くなっているようです

    Cubism 3~でのリップシンクの設定は、過去のViewerで設定→ファイルを出力する形式から、
    [モデルワークスペース]と[アニメーションワークスペース]各々の設定する方法に変更されたようですね
    詳しく方法は「BGMや音声を使用したシーンの作成」を参考にしてください

    上記の方法は、固定のアニメーションにWAVの音声データーを張り付け、リップシンクを適用、動かす方法です
    (自動的に口の開閉を設定した後、変な個所を修正できるといったメリットがあります)
    なので、LIVE配信を想定したマイクで喋りリアルタイムでリップシンクがチェックできる機能は
    現時点、LIVE2D側のツールでは無い様に思えます

    よってLIVE配信始めるにあたって、必ず設定するツール(facerig、unity等)があると思うのですが、
    ご要望の機能は別ツールとの相談となりますかね?

    2キャラを同時に表示させ調整というのも、なかなかリアルタイムでやるというのも難しいですが、
    できる事といたしましたら、あらかじめリップシンクを適用したモーションモデルを用意し、それを再生
    別のモデルで一人アフレコの様にやるのが現実的でしょうか?

    ひとまず、私のわかる範囲ではありますが、お力になれれば幸いです
コメントするにはサインインまたは登録して下さい。