新しいLive2D公式コミュニティ(日本向け)が公開されました!
ぜひご利用ください!
Live2D公式コミュニティ

■このコミュニティの今後について
このコミュニティ(forum.live2d.com)につきましては、しばらくの間新コミュニティと並行して運営しますが、2022年内を目処に閉鎖する予定です。
閉鎖時期や内容については決定次第お知らせいたします。
海外向けコミュニティについては変更ございません。
Live2Dに関するユーザーのみなさま同士の交流・ご質問・不具合の報告・提案・要望などについて是非お寄せください。
※Live2D公式スタッフからの発言や回答については確約できないことを予めご了承ください。

Live2D ヘルプ

Cubism Editorダウンロード / 動作環境
Cubism SDKダウンロード / 対応表
Cubism 製品利用ライセンス(SDK含)

Cubism 製品のライセンスについてのお問い合わせはこちら
nizima 及び nizima 製品についてのお問い合わせはこちら
【各最新OSの対応状況について】
Cubism Editorは 4.1.02 正式版以降でWindows 11 及び macOS Monterey に対応しております。ぜひ最新版をご利用ください。
※macOSをお使いの方でOSアップデートする際は必ずCubism Editorのライセンスを解除してください。
Cubism EditorをインストールしているmacOSをアップグレードしたい
Cubism SDKについては各SDKのREADMEまたはNOTICEをご確認ください。

【Mac各機種への対応状況について】
現在、Cubism EditorはApple M1チップ搭載機種には対応しておりません。
詳細は 動作環境 をご参照ください。
関連するお問い合わせへの対応はこの文章をもって代えさせていただきます。
Cubism 製品のマニュアル・チュートリアルはこちら
 
Cubism Editorマニュアル    Cubism Editorチュートリアル    Cubism SDKマニュアル    Cubism SDKチュートリアル

SDK:モーションの呼び出し方がわからない

編集済: 4月 2014 Cubism SDK 2.1
model.jsonファイルを見ると、HitAriaはLive2Dのモデラーパーツの名前(デフォルト)が設定されているようなので、サンプルをそのままコピーしました。
モーションを「tap」「flick」などのフォルダーに分け、model.jsonのパスも変更しましたが、まったく反応しません。
現在は待機モーションは動作していて、マウスを追いかけるような動作のみです。
ハルやしずくのmodel.jsonとどう違うのか、同じように設定しているのですが注意点などわかる方がいれば教えて下さい。
よろしくお願いします。
タグ付けされた:

コメント

  • 編集済: 4月 2014
    以下の2つを設定してみてください。
    1.モデル設定ファイルの中の"motions"にある"null"を"tap_body"に変更
    2.モデル設定ファイルの中に、"model"や"textures"と同じ階層に以下の項目を追加
    "hit_areas":
    [
        {"name":"head", "id":"D_REF.HEAD"},
        {"name":"body", "id":"D_REF.BODY"}
    ],
  • ありがとうございます。
    たったいま解決したところでした。
    しずくの "hit_areas"をコピーしていたのですが、ミクのモデルファイルを開いて、デフォーマ名を確認したところ、「D_REF.BODY」「D_REF.HEAD」となっていて、しずくとは名前のつけ方が異なっていました。
    あとは音声ファイルを再生できれば、テストは終了でオリジナルキャラの作成に入ろうと思います。助かりました。
  • 力になれたのかは甚だ疑問ですが、解決できたのなら何よりです。
    また何かありましたら、お気軽にお尋ねください。
  • 一つ解決でまた一つ疑問の繰り返しです><
    モーションと同時に音声も出るようになったのですが、音声に合わせての口パクができません。
    これは"model.json"ではないようですね。
    ”LApp.model"の中に口パクのパラメータ名の記述があったので、ここの名前かなと思いましたが、モデルデータで確認したところ同じパラメータ名でした。
    一歩一歩進んでる気はしますが、なかなか難しいです。
    アドバイスをお願いします。
  • 現在のSDKでは、音声からのリップシンクは設定していません。
    サンプルとして入っているモデルの口パクは、モーションから開閉を設定しています。

    実行中に再生中の音声を取得して開閉させる場合は、あらかじめModelBaseUnityクラス(LAppModelの親クラス)のsetLipSync()にtrueを渡し、
    AudioListenerなどから音量を取得して、ModelBaseUnityクラスのsetLipSyncValue()に毎フレーム音量をセットすると口が音声に合わせて開閉します。

    ただし、音声を取得する際にBGMやサウンドエフェクト、他のキャラの音声などを取得してしまうと、その音量でも口が開閉してしまいますので注意してください。
  • なるほど、サンプルはAnimatorで口パクも設定されていたのですね。
    音声取得して自動口パクはなかなか難易度が高そうなので、いろいろ試してみます。
    ありがとうございました。
コメントするにはサインインまたは登録して下さい。