この日は、冨田勲を追悼する放送で、初音ミクは、冨田勲とのコラボ作品 「イーハトーヴ交響曲」 をメドレー形式で演じる内容だった。
題名のない音楽会 「冨田勲の音楽会」 2016.07.24
(https://www.youtube.com/watch?v=fLty97utFIs)
【 放送映像について 】
この放送は、AR (拡張現実) 技術が用いられ、これまでは、シルクスクリーンに投影された姿でしかリアルに存在できなかった初音ミクが、平面ではなく、立体として登場する。
ARを体験するには、それに対応したアプリを使う必要があるため、この収録が行われた会場では、放送映像のような初音ミクの姿は見ることはできなかっただろう。
おそらく、本放送の映像は、先撮りした演奏映像に、ミクの映像を重ね、同期させたって感じで制作されたように見受けられるので、収録の来場者は、この映像をリアルタイムでは見られなかったと思う。
そういう意味では、まだ、リアルタイムでは堪能できない技術だから、ライブではシルクスクリーン、こうした収録では AR という風に使い分けるのかもしれない。
【 制作行程を考えてみた 】
この放送映像が、どのような手順で制作されたか考えてみた。
まず、一番最初に気になるのは、ステージ中央の 『て』 って書かれたみたいなボックスだよね。ここに描かれているのは、『て』 ではなく、ARマーカーだよ。このマークを、ARに対応したカメラで映すことによって、現実の風景に、デジタルデータを重ねて表示することができるんだ。
でも、この場合、単なる位置情報に過ぎないだろうから、たとえ会場にいて、このステージをARカメラなんかで見たとしても、ミクは表示されなかったと思う。
そんで、どんな過程でこの映像を制作したかというと、こんな行程だったんじゃないかと思う。
1) 番組収録する
2) 番組で使うミクのデータを用意する
3) 収録映像に、ミクのデータを重ねる
4) 演奏や放送用の編集に合わせ、同期と微調整を行う
いろいろ考えてみたけど、ざっくりこんな感じじゃないかな?
箇条書きにしてみるとシンプルだけど、 デジタルデータの合成にありがちな、位置情報のズレなどによる挙動の不自然さや、動きに合わせて影もついていることを考えると、この制作には、かなりの手間と情熱がかけられていると思うよ。
【 番組を見た感想 】
こういったヴァーチャル・アイドルたちは、技術が進歩する限り、限界はないのだろうと思ったよ。
人間の限界が、ヴァーチャル・アイドルの限界ということを考えるのであれば、もう、人間とそう変わらない存在なのかもしれない。
2013年、イーハトーヴ交響曲公演が行われたとき、ミクはスクリーンに映し出される MV みたいな存在でしかなかったけど、この放送では、(画面越しだけど) スクリーンやモニターから飛び出し、あたかも現実に存在するかのようにまでなった。
近年では、VR 技術も発達してきたし、Micrsoft Hololens のような装着し、移動できるデバイスが日常的なものになれば、この放送のようなミクが、ライブで体験できる日も近いのかもしれないね。
○参考動画URL
Microsoft HoloLens Review, mind blowing Augmented Reality!
(https://www.youtube.com/watch?v=ihKUoZxNClA)