2017/01/05

『モーションキャプチャー』が結ぶ、シン・ゴジラと野村萬斎さんの関係

シン・ゴジラと野村萬斎さんの関係

最近の映画やゲームを見ると、CG(コンピューター・グラフィック)でつくられた人間や宇宙人やロボットの動きがあまりにスムーズかつリアルなのでビックリしてしまう。一体どうやってつくっているのだろう。と、不思議でならないあなた、まずは下の動画を見ていただきたい。答えは「モーションキャプチャー」にある。

画面右の女性ダンサーが踊っている動きにぴったりシンクロするように、画面左側のCGの少女も同じ振り付けで踊っている。これがモーションキャプチャーだ。実際の人間の動き(モーション)を特殊なシステムを使ってデータ化し、コンピュータに取り込んで(キャプチャー)、CGの動きに反映させるというわけだ。

モーションキャプチャーと聞いて、映画『シン・ゴジラ』を思い浮かべた人も多いかもしれない。そう、シン・ゴジラは狂言師の野村萬斎さんの動きをモーションキャプチャーを使ってCG化したものなのだ。昔はゴジラの着ぐるみに人間が入って演じたが、今はモーションキャプチャーを通して「演じる」というわけだ。とにかく今じゃ、SFやファンタジーものの映画でモーションキャプチャーを使っていないものはほとんどない。

モーションキャプチャーの仕組み

さて、上の動画『CatSong』を制作したのは、最先端のモーションキャプチャー技術を誇るMOCAP JAPANという企業だ。今回は、このMOCAP JAPANのCEOである青木和之さんにモーションキャプチャーの仕組みとワクワクする未来についてうかがってみた。

まずは、この動画『CatSong』で用いられている技術について、青木さんがこう説明してくれた。

「これはアクティブLEDというPhaseSpace(フェーススペース)社独自の技術を用いたモーションキャプチャーで、女性ダンサーの体のさまざまな部位に、LEDのマーカーが取り付けられています。このLEDは肉眼ではわからないほどの高速度で点滅していて、その点滅速度の違いによって、それが手なのか頭なのか、どの部位についているLEDなのかがわかるようになっているんです。これを周囲に何台も配置した専用のカメラで撮影し、コンピュータがそれぞれのLEDマーカーの位置をデータ化して、CGのプログラムに計算させているんです。実際、これはダンサーの動きをリアルタイムにCGで再生しているんですね」

つまり、縦・横・奥行きの3次元座標軸のどの位置に、手やつま先や頭といった身体の部位があるかを、高速点滅するLEDからコンピュータが瞬時に割り出し、その座標データをこれまた高速に処理してCGを動かしているというわけだ。

バーチャルアイドルが観客に反応する日

青木さんによれば、モーションキャプチャーの技術は、1990年代から現在に至るまでに、さまざまなタイプ(光学式、ジャイロ式、画像認識等)のモーションキャプチャーの技術が研究され、浸透してきたとのこと。

「それまではCGの技術者が膨大な時間をかけてつくっていた人間や動物の動きも、モーションキャプチャーを使えばその時間を圧倒的に短縮できるし、しかも自然でリアルです。しかも、今では動画『CatSong』で示したように、人間の動きをリアルタイムにCGに変換できるので、いろんなことが可能になりました。わたしが今、取り組んでみたいのは、バーチャルライブのステージでのモーションキャプチャーとVR/ARゲームの世界に進出するモーションキャプチャーと3Dスキャンとモーションキャプチャーの融合になります」(青木さん)

バーチャルライブのステージでのモーションキャプチャー

ライブのステージで、観客からは見えない場所にモーションキャプチャーのシステムを設置し、そこにアクティブLEDをつけた女性を立たせる。ステージに映し出されるバーチャルアイドルのCG映像とこの女性とは、モーションキャプチャーで結び付けられている。この女性が観客の反応に応えて、手を振ったり、観客を指さしたり、ジャンプしたりすると、ステージ上のバーチャルアイドルも同じ動きをするわけだ。つまり、これまではCG動画上映会にすぎなかったバーチャルアイドルのライブが、臨機応変に観客と掛け合いをするなどしてコミュニケーションできる、文字どおりの「ライブ」になるわけだ。

VRゲームの世界に進出するモーションキャプチャー

「動画『CatSong』で使われているのは『フェーススペース(PhaseSpace)』という、従来のものより格段に小型化された最先端のモーションキャプチャーのシステムなんですが、これを使ったVR(仮想現実)ゲームもこれからはどんどん登場してくるでしょう。VRの世界の中で、自分や仲間たちの動きがリアルタイムに映し出されるわけですから、まったく新しいゲームの世界が出現するわけです」(青木さん)

「フェーススペース(PhaseSpace)」がVRゲームで使われている様子などは、下の動画から見ることができる。

モーションキャプチャーの技術は、今も劇的な進化を続けているとも青木さんは言う。

「LEDなどを身体に装着しなくとも、コンピュータの画像認識技術だけでモーションキャプチャーができる技術はすでに完成しているんです。しかも、普通のデジカメ10~20台ぐらいでシステムがつくれます。開発中のものをメーカーから借りて使ってみたんですが、なんにも身体に着けずにモーションキャプチャーができましたが、ただ、データ量があまりに某大で、まだまだ実際に使えるレベルではありませんでした。でも、数年以内には実用化されるのではないかと思います」(青木さん)

3Dスキャンとモーションキャプチャーの融合で、映像の新時代がすぐそこに

現在、3Dスキャン技術の精度がどんどん向上し、人間からお城などの大きな建造物まで、何台ものカメラを使って正確な3次元像を撮影することができるようになった。青木さんは、この3Dスキャンとモーションキャプチャーを合体させて、現実との違いがまったくわからないCG映像をつくることができる時代が来ると予測する。

「現在では、CGはコンピューター上で、コツコツと積み上げていくようなつくり方をしています。ディテールに凝った人間や生物だと、一体を完成させるのに何カ月もかかります。ところが、3Dスキャンの映像をCGに取り込むことができれば、とても正確で緻密なCGを短期間でつくることができます。そのCGにモーションキャプチャーの動きを取り入れたら、本物そのままのCG動画が完成するわけです。映像のつくり方が根底から変わってしまうんです」(青木さん)

青木さんが予言する未来は、すでに下の動画で見ることができる。これは青木さんのMOCAP JAPANの技術協力によってつくられたもので、KDDIウェブコミュニケーションズが提供するビジュアルブログg.o.a.tとDragon Ashのコラボレーション映像。3Dスキャンとモーションキャプチャーを組み合わせた最先端のCGだ。

ディレクター:杉江宏憲 撮影監督:向井拓也

モーションキャプチャーというのは、もしかして、ありとあらゆるものをバーチャル化するためのキーテクノロジーなのかもしれない。どうやら、とんでもない映像新時代がすぐそこまでやってきているようではある。

文:太田 穣