でゅら~の暇つぶし

音楽情報を中心に、さまざまな情報をとりまとめるブログです。

【動画紹介】初音ミク 「イーハトーヴ交響曲初音ミク・メドレー」

 7月24日放送の、テレビ朝日音楽番組 「題名のない音楽会」 に、ヴァーチャル・シンガー初音ミクが登場した。
 この日は、冨田勲を追悼する放送で、初音ミクは、冨田勲とのコラボ作品 「イーハトーヴ交響曲」 をメドレー形式で演じる内容だった。



題名のない音楽会冨田勲の音楽会」 2016.07.24
  (https://www.youtube.com/watch?v=fLty97utFIs


【 放送映像について 】

 この放送は、AR (拡張現実) 技術が用いられ、これまでは、シルクスクリーンに投影された姿でしかリアルに存在できなかった初音ミクが、平面ではなく、立体として登場する。
 ARを体験するには、それに対応したアプリを使う必要があるため、この収録が行われた会場では、放送映像のような初音ミクの姿は見ることはできなかっただろう。
 おそらく、本放送の映像は、先撮りした演奏映像に、ミクの映像を重ね、同期させたって感じで制作されたように見受けられるので、収録の来場者は、この映像をリアルタイムでは見られなかったと思う。
 そういう意味では、まだ、リアルタイムでは堪能できない技術だから、ライブではシルクスクリーン、こうした収録では AR という風に使い分けるのかもしれない。


【 制作行程を考えてみた 】

 この放送映像が、どのような手順で制作されたか考えてみた。
 まず、一番最初に気になるのは、ステージ中央の 『て』 って書かれたみたいなボックスだよね。ここに描かれているのは、『て』 ではなく、ARマーカーだよ。このマークを、ARに対応したカメラで映すことによって、現実の風景に、デジタルデータを重ねて表示することができるんだ。



 でも、この場合、単なる位置情報に過ぎないだろうから、たとえ会場にいて、このステージをARカメラなんかで見たとしても、ミクは表示されなかったと思う。

 そんで、どんな過程でこの映像を制作したかというと、こんな行程だったんじゃないかと思う。

  1) 番組収録する
  2) 番組で使うミクのデータを用意する
  3) 収録映像に、ミクのデータを重ねる
  4) 演奏や放送用の編集に合わせ、同期と微調整を行う



 いろいろ考えてみたけど、ざっくりこんな感じじゃないかな?
 
 箇条書きにしてみるとシンプルだけど、 デジタルデータの合成にありがちな、位置情報のズレなどによる挙動の不自然さや、動きに合わせて影もついていることを考えると、この制作には、かなりの手間と情熱がかけられていると思うよ。


【 番組を見た感想 】

 こういったヴァーチャル・アイドルたちは、技術が進歩する限り、限界はないのだろうと思ったよ。
 人間の限界が、ヴァーチャル・アイドルの限界ということを考えるのであれば、もう、人間とそう変わらない存在なのかもしれない。

 2013年、イーハトーヴ交響曲公演が行われたとき、ミクはスクリーンに映し出される MV みたいな存在でしかなかったけど、この放送では、(画面越しだけど) スクリーンやモニターから飛び出し、あたかも現実に存在するかのようにまでなった。
 近年では、VR 技術も発達してきたし、Micrsoft Hololens のような装着し、移動できるデバイスが日常的なものになれば、この放送のようなミクが、ライブで体験できる日も近いのかもしれないね。


○参考動画URL
Microsoft HoloLens Review, mind blowing Augmented Reality!
  (https://www.youtube.com/watch?v=ihKUoZxNClA