Unity触って1年でバーチャルライブをやるようになるまで
皆さんこんばんは、今日は先日開催されたclusterイベント勉強会用に作った資料をブログにまとめることにしました。尚、当記事はclusterイベント用なので個人勢がバーチャルイベントをやる想定で書いています。企業勢はOptitrack・ViconやXsensを使ってると思うので当記事はスルーしてください。
イベント自体のアーカイブはこちらをどうぞ。
皆さんとても勉強になる事がいっぱいです。
Event now!#cocalerovirtual #コカレロ #stayhome #コカレロバーチャル #clusterVR pic.twitter.com/Y1JbJ6QzXR
— VJyou (@VJyou_VR) May 4, 2020
ThreeDPose Tracker
3次元姿勢推定のこれまでをアプリにまとめました。
— Yukihiko Aoyagi (@yukihiko_a) June 19, 2020
ThreeDPoseTracker v0.1.0、まだα版、こっそりプレリリースです。かなりPCを選びます。
下記のQiitaの記事内から無料でダウンロードできます。
使い方も書いてます。長文です。https://t.co/nBYED9AI01 pic.twitter.com/tkWkKUkgUC
ThreeDPoseTrackerでググるといっぱい驚愕の動画が出てきます。
しかもこのデータ、BVHで書き出しができるので変換すればUnityにも使えます。
自分も使ってみたところ、簡単なモーションだったら綺麗にとれてました。びっくり。
ただ、欠点も若干ありまして
・複数人が同時にフォーメーションを組むダンスなどに向いてない
(一人ずつのモーションなら結構とれた)
・回転が多いとたまにグチャル・・・
というわけで、複数人が同時に回転するバレエには不向きだったので見送りました。
RTX2060のノートPCでほぼ30fps出ていたので、将来GPUがもっと進化していくとどんどんリアルタイムで使えるようになるのではと期待大です。
ばもきゃ+EVMC4U
自分の周りでは使ってる人をなかなか見かけませんが、ばもきゃ+EVMC4Uはとても便利な組み合わせです。Segmentation Faultさんがとても細かい記事を書いてくださっていたので、記事の通りに書いたらできました。
とても便利なシステムだったのですが、やや問題もわかりました。
どうも、足が頭より上にあると変な補正が入ってグチャルようです。
このシステムでモーキャプするにはOSC機能が必要になるのでバーチャルモーションキャプチャーは先行版が必要になります。毎月300円かかりますが、他の機器が何十万円もするのと比較すると月300円なんてタダみたいなものですね。個人勢でバーチャルライブやるならバーチャルモーションキャプチャーはホントお勧めです。なにせ、普通のダンスだと頭より足が高くなる事なんてないですから。
しかし、今回は頭より高い位置に足が上がるバレエ。
残念ながらバモキャシステムも要件に見合わなかったので次の方法を探します。
Polygon
Optitrack
Optitrackは本当に便利です。光学式なのでフォーメーションもばっちり。
しかし、一式揃えようとすると数百万かかり、スタジオレンタルだけでも1時間10万前後するので個人勢には遠い壁です。
法人案件にはとても良く、クリエイティブディレクターとして関わったDEARKISSバーチャル等のcluster外の案件ではOptitrackも使っています。
まさかのアンコール!
— VJyou (@VJyou_VR) December 12, 2020
こんなに自由なバーチャルライブ初めて見たw
ステージ大きいとVJ楽しい🥰#DEARKISSバーチャル pic.twitter.com/1JcFYd1WyN
非公式イベントでチケットが売れなかったり、法人案件のワールド持ち込み等諸々の規定があるので現状clusterで企業系バーチャルイベントを開催するのは難しいですが、いつか規制が緩和されたらこういうイベントもclusterで開催したいなと思います。
Neuron
【イベント】
— POiNT (@point_party_) July 2, 2020
7/3(金)22:00〜
バーチャルSNS cluster
「POiNT LIVE 進捗状況報告会?!」https://t.co/FwooOSYJTy
今回は内容盛りだくさん!
POiNT LIVEの最新情報も…?!
お楽しみに♫#cluster#ポイントバレエ #POiNTVR pic.twitter.com/bJ71TcJFge
個人で動きが少なければバモキャで十分なのですが、チームで動きが激しいと、Neuron使ってもどんどんズレていきます。
そこで必要になるのがモーションを補正するソフトです。
UmotionPRO
モーション修正と言うとCG業界ではMotionBuilderがメジャーですが、そんな予算は個人系イベントにはありません。ここはUmotionProという60$のアセットで乗り切ります。UmotionPro自体はチュートリアル通り作業するとサクサク動いてくれます。
調整レイヤーも作れるので、
・モーション全体で首の角度をちょっとだけ微調整したい
・腕だけちょっと体から離したい
といった微調整も簡単にできます。
例えば、ステージを高くするか客席を高くするか収録時に決まっていなかった場合は、目線の位置を調整するのに首を全体的に角度変えたりします。
また、生身だと腕を体にぎゅっと近づける動きはよくありますが、VRMでこれをやると盛大に体に腕がめり込むので補正が必要です。
これらのモーション全体に均一に補正をかけたい時に便利なのが調整レイヤーです。
そんな便利なUmotionですが、一個だけ問題点がありました。それが
FBXじゃないとプレビューが反映されない!!!
という問題です。
日本ではVRMがどんどん主流になってきていますが、世界ではVRMの知名度はまだまだなのでVRM標準対応はしてくれません。
そこで解決策として
1.Humanoid型3Dモデルをダウンロードしてモーションの確認用に使う
2.VRMをFBXexporter使ってFBX化する
という二通りの方法があります。
Humanoid型3Dモデルの場合、Unityちゃんの3Dモデルが最も手軽に入手できるので便利です。
VRMをFBX化してもブレンドシェイプ等はそのまま使えたので、試してみて問題がなければFBX化がシンプルでしょう。
LipsyncPro
VRM、Lipsyncと普通に検索していくとたどり着くのがOculus Lipsync ですが、残念ながらこれはclusterでは使えません。Unity上のプレビューでは問題なく動いているのに、意気揚々とアップするとclusterでは全くリアクションしてくれません。
同様に、SalsaLipsync もUnity上では動きますが、clusterにアップすると無言勢になります。
スクリプトで動かす系は残念ながら全滅なようなので、おとなしく全部手打ちします。
LipsyncProの場合、音声ファイルをもとにざっくりとしたキーフレームも出してくれるので多少は楽になります。リップシンク回りや表情回りは自分は苦手なのでほぼ丸投げしています。
まとめ
色々書いていましたが、チームで高速回転する特殊な演目でなければ、ViveTrackerやwebカムだけでも結構どうにかなる環境がだいぶ整ってきています。
clusterのCCKは本当に優秀なので、個人勢でも情熱と時間があればclusterでバーチャルライブはガンガンやれます。
2021年初の現状ではVtuber = youtubeから生まれるもの、という概念が主流ですが、clusterやVRCのようなVRsns発のVtuberがメジャーになっていってこそVR新時代だと自分は思っています。
この記事が新しいVR文化の役に立てば幸いです。
Post a Comment