ニュース

アニメはリアルタイムで作って生放送? VR/8Kなど、Adobeが見据える映像制作の今後

 今夏に行なわれるアップデートで、Adobeの「Premiere Pro CC」にはVR映像編集向けの機能が追加。6月1日から公開された「攻殻機動隊 新劇場版 Virtual Reality Diver」など、既に多くのVR映像にPremiere Pro CCが活用され始めているという。また、「After Effects CC」では、2Dアニメ静止画を動かしてアニメーションを作れる機能が進化。これら「Creative Cloud」(CC)シリーズのビデオ製品は、“映像編集ソフト”としての枠を超えて、次々に新しい機能を搭載し続けている。

Premiere Pro CCのVR向けビューモード

 4月に米国で行なわれた「NAB Show 2016」に合わせて予告され、今夏に実装予定という新機能の詳細とともに、VR、HDR、4K/8Kといった新しい映像トレンドへのAdobeの取り組みについて、同社プロフェッショナル向けビデオ&オーディオの製品マネジメント担当 シニアディレクターを務めるビル・ロバーツ氏と、プロフェッショナル向けビデオ&オーディオ グループ製品マネージャーのスティーブ・フォード氏に聞いた。

 Adobe CCは高機能を求めるプロフェッショナルやハイアマチュアが主要なターゲットで、コンシューマの多くは直接のつながりを感じていないかもしれない。それでも、クリエイターや放送/配信事業者とのつながりが強く、パートナーとして映像制作に取り組んでいるAdobeが考えるトレンド感からは、4K/VRなど我々が楽しむ映像がどのように作られ、今後はどう変わっていくことが予想されるのか、いくつかのヒントも見えてくる。

ビル・ロバーツ氏(右)と、スティーブ・フォード氏(左)

“2Dキャラに命を吹き込む”技術で「ザ・シンプソンズ」生放送が実現

 '15年6月のメジャーアップデートで提供を開始したAfter Effects CCの「Character Animator」機能。2次元キャラクターをアニメのように自在に動かせるというもので、PhotoshopやIllustratorで作成した複数レイヤーの静止画から、アニメーションのように連続した動画を生成できる。顔認識技術を用いて、人の顔に連動してキャラクターを思い通りに動かせるため、インターネット上での実況などで、まるでキャラクターがしゃべっているような映像をリアルタイムで制作して、そのまま配信に使える。

Character Animator

 Character Animatorの次の新機能としては、より忠実度を高めるという「ライブアウトモード」や、キャラクターに動きを付けるためのリギングのスピードを上げる機能を搭載。キャラクターの関節部分を的確に定義/コントロールできる機能も加えたという。

 Character Animatorの次期バージョンが、いち早くテレビ放送で使われたのが、5月15日に米国で放送されたアニメ「ザ・シンプソンズ」で初となる生放送。主人公・ホーマーの声を務めるダン・カステラネタ(Dan Castellaneta)がファンからの質問に答えるという内容で、声に合わせてリアルタイムでホーマーが動く、3分間の“アニメ生放送”が実現した。

Character Animator機能を使って、アニメ「ザ・シンプソンズ」の生放送が実現

 ザ・シンプソンズの取り組みでは、声優に合わせて、プロデューサーでライブアニメーターのデイビッド・シルバーマン氏が、キーボード操作でキャラクターを動かす役割を担当。Character Animatorの操作は、声をあてる人が1人で同時に行なうことも可能だが、ライブ制作では、こうした複数名のチームで動くというケースが多いという。シンプソンズの場合、1つのエピソード(30分)を従来の方法で制作するには8カ月かかるとのことだが、今回の生放送は、事前に準備する必要もなく、実時間と同じ3分間で実現したという。

 フォード氏は「(テレビの)生放送でこのソフトが使われるとは思っていませんでした。ユーザーが我々の提供したテクノロジーを色々な方法で試し、今まで考え付かなかった使い方をされることが素晴らしいと思います」と話す。

 今回は3分間という限られた時間だったが「これまで放送した595話分のキャラの動き全てを詰め込んでデータベース化し、アニメとして使うことも可能になります。Character Animatorの技術で誇りに思うのは、“パフォーマンスアニメーション”という新たな制作の機会が生まれたこと。モーションキャプチャ用のスーツを着るなど、従来の大がかりな設備を必要とせず、ノートPCのWebカメラで実現できます」(フォード氏)と、今後の活用に期待を寄せている。

 YouTubeで公開されている動画(ABC Newsの映像)を実際に見ると、全く違和感なく声に合わせてキャラクターが動いているのが分かる。体の動きはキーボードで操作できるため、話とジェスチャーも一致。特にキャラクターのリップシンク(口パク)がピッタリと合っていて、これを生放送で実現しているのは驚きだ。

Character Animatorで制作、生放送された「ザ・シンプソンズ」の一部(ABC News映像)

 口の形については、「ビジーム」(Visemes)と呼ばれる、基本となる口の動きを静止画としてあらかじめ用意。日本語でも英語でも14種類程度の口の動き(AhやEeなど)を用意すればカバーできるという。ロバーツ氏によれば「日本語は思ったよりも簡単。スロバキア語やリトアニア語はとても難しい」とのことで、日本語で同様のアニメ生放送が登場する日も、そう遠くはないのかもしれない。

基本となる口の動きを静止画として用意

VR映像の先に、音の360度化も?

 Premiere Pro CCでの注目ポイントは、多くの360度全天周撮影対応カメラで対応している「正距円筒図法(rectangular)」で作られたVR映像ワークフローのサポート。通常、全天周映像を長方形で表示すると大きな歪みが発生するが、新しい「VRフィールドモニター」機能により、任意の視野角で全天周映像を確認することが可能になった。スクロールバーのドラッグや、画面のドラッグで表示領域を移動して確認できる。

「VRフィールドモニター」に対応

 VR映像出力時のメタデータ追加にも対応。書き出しオプション内において立体視の対応VR形式が指定可能となり、これによって、書き出した動画がYouTubeでのVR再生に対応する。

 さらに、Adobeのパートナー各社が用意したエフェクトにより、トランジションとして、ブラーやディゾルブなどを、VRのプロジェクトの中でも使うことが可能になった。VR映像を、従来の2D動画と同様に扱うと、動画と動画のステッチ(縫い合わせ)部分がボケるという問題が起きていたが、この問題も解消されるという。

 “VR映像の編集”と聞くと、高度な技術が必要なようにも思えるが、ロバーツ氏は「動画の編集はシンプル。むしろ、ストーリーの編集が大変です」と指摘する。

 「フィルムメーカーとのやり取りの中で感じているのは、“ストーリー”ではなく“体験”を届けるためにVRは強力だということです。例えば、私の同僚に東京の下町の風景を見せたいときは、VRなら周りをぐるぐる見回すという映像だけで実現できます。一方で、映画やドラマなどにおいて、VRでリニアにストーリーを語っていくのは難しい。その人がどこを見ているかわからない状況で話をしなければならないからです。今年のサンダンス映画祭の作品でも、VR映像でのストーリーテリングが行なわれていましたが、話の内容を面白くするためには、自然にそこへ耳や目が行くように、適した音/映像を用意しないといけません」(ロバーツ氏)

Premiere Pro CCのVRワークフロー

 新たな動向としてロバーツ氏が挙げたのは(ニュースメディアのThe Vergeによる)ミッシェル・オバマ大統領夫人のVRインタビュー。YouTubeのVRで観られるもので、普通にインタビューしている本人の様子を見るか、周囲の様子を見るかという視点をユーザーが選べる。周囲を見回すと、話しの流れに関連した動画も小さなウィンドウ内に表示される構成。視聴者が好きなものを見る形をとりながら、情報を補間し合う形で一つのコンテンツにまとまっている。

ミッシェル・オバマ氏のVRインタビュー(The Verge)

 こうした現状でのAdobeの立ち位置についてロバーツ氏は「カスタマーと協力する重要な時期だと考えています。価値が高いもの、ストーリーを伝えやすいような環境に、Adobeとして将来的に目を向けていきます」と話す。

 一つの例として紹介したのは、Adobeの“VR映像に合わせた音”に関する取り組み。「今リサーチを続けているのは、スティッチしたVR動画に連動したサウンドフィールドを添付するというものです。これが実現できれば、“自動化された音のパンニング”が、動画制作者向けに提供可能になり、VR映像のどこを観ればいいかが分かりやすくなります。今は実験段階で、プロダクトにはまだなっていません」(ロバーツ氏)。

 次回アップデートされる新しいPremiere Pro CCの技術を用いて制作されたVR動画の一つが、6月1日より日本で世界に先駆けて公開された「攻殻機動隊 新劇場版 Virtual Reality Diver」だ。

 士郎正宗とプロダクションI.Gが手掛ける15分間のVR映像コンテンツで、既報の通り、インターネットカフェのヘッドマウントディスプレイ(HMD)でVR映像が楽しめる「VR THEATER」に採用。YouTubeでティザー動画が公開されている。'16年夏以降にはiOS/Androidアプリバージョンの配信なども予定されている。

 「VRについては、これから数週間のうちに一連のツールを公開していきます。今後も他社とのパートナーシップを進め、その中にはFacebookやGoogleも含まれます。これらのパートナーはコンテンツ消費において大きなプラットフォームとなります」(ロバーツ氏)。

8K/HDRにも対応。解像度の進化は、ムーアの法則を超える?

 Premiere Pro CCの新機能で注目は、4Kだけでなく8K(7,680×4,320ドット/60fps)にも対応したこと。デジタルシネマカメラの「RED WEAPON」で記録された8K映像にネイティブ対応し、元のファイルから720pなどの低解像度なコピーを作成し、プロキシ編集が行なえる。これにより、MacBook Proなどでも8K映像の編集/プレビューが可能で、高解像度なファイルとプロキシファイルの切り替えなどもスムーズに行なえるという。

 ロバーツ氏は、5月に行なわれた放送/映像制作者向けイベント「NAB Show」を振り返り、「会場でよく聞かれ、気に入っている言葉は『ムーアの法則を超えて、解像度が進化している』というものです」と話す。

 プロキシを使ったワークフローを勧める理由には、VRも大きく関係している。現在販売されているコンシューマ向け全天周カメラの多くは、解像度がフルHD程度だが、VR映像としての視野角で見ると解像度は低下する。例えば、水平視野角100度とした場合は530画素程度で、SDを下回ってしまう。実際の風景に近いVR映像を実現するには、8Kを上回る解像度が必要だという。高解像度が求められるVRにも、プロキシワークフローが現実的な選択肢になるとAdobeは見ている。

 「VRと高解像度化、HDRといったトレンドは、全てつながっていると言えます。昨年のアップデートで、Dolby Visionを含む全ての種類のHDRコンテンツの入出力に対応しました。HDRによって、今までで最も光や色彩の豊かなテレビをコンシューマが買えるようになりました。それは、高解像度化よりも大きなインパクトをもたらすことがあります」。

HDR/広色域もサポート

 「オプション機能として、クラウド上の『CCファイルフォルダ』にプロキシを保存でき、複数のコンピュータでCreative Cloudを介して同期可能です。Premiere Proは世界中のどんな動画ファイルもネイティブで扱えますが、我々が目指すのは、“コンテンツをどんなコンピュータでも扱えるようにする”こと。プロキシ編集の進化は、地味ではありますが、ワークフローの前進という意味で最もエキサイティングな機能の一つと言えます」(ロバーツ氏)。

プロキシ生成

8K/HDR/VRが今後の映像制作にもたらす流れ

 日本では8月に8K試験放送が始まり、2020年の東京オリンピックに向けて、NHKや機器メーカーなどは8Kの盛り上がりに期待を寄せている。映像制作業界に多くのパートナーを持つAdobeは、グローバルで4KやHDRといった高画質化について、現状ではどのような捉え方をしているのだろうか。

 ロバーツ氏は「1月に行なわれたCES 2016では、複数のテレビメーカーがエントリーレベルの4Kテレビを導入しました。HDR対応で約1,000ドル程度です。グローバルでこの数字は“マジックナンバー”と見られていて、この価格でテクノロジーを提供できると、もっと普及は広がるでしょう。個人的には、HDRよりも4Kの方が先に早く前進するのではと思っていますが、現在購入されているテレビは、何らかのHDR機能が備わっているものだと思います」と見ている。

 8Kなど高解像度化が進むことで、映像制作にはどのような変化が起こるのだろうか。カナダ最大の民放ネットワーク「CTV(Bell Media)」で、かつて編集を担当していたロバーツ氏は「最初の変化は“撮影”から」とする。

 「'16年、'17年には、4Kで撮影する映像制作者が今より増えてくると思います。撮影後にHDのテレビ番組として作り、その番組を別のマーケットに出す際にはもっと高い解像度で提供していくことができるでしょう。今までのSDからHDへの変化とは違って、マーケットのトレンドは早い。これは、Netflixのような新規参入者がいるためです。従来のようにCATVや衛星放送を通して提供するのではなく、直接コンシューマへ高解像度/HDRコンテンツを届けることができます。そのため、既存の放送事業者も、今まで以上に動きを早くしていく可能性があります」(ロバーツ氏)。

 一方で、これからの普及が期待されるARについては、映像制作にどんな流れをもたらすのだろうか。フォード氏は「先ほど例としてオバマ氏のインタビューを挙げましたが、新しいメディアを皆が試しているところです。ビデオゲームの時代のようなもので、ユーザーを特定の方向へ導こうとする“リニア型”で発展していると思います。現在のVRやAR(Augmented Reality/拡張現実)、AR(Artificial Reality)と呼ばれるものは、今は単一のエクスペリエンスに着目していると思います」とする。

 今後の方向性については「今ではビデオゲームはリニア型で発展しているのではなく、様々な形で体験できるようになっています。VRやARも同じような形で動いていくと思います。新しいストーリーがそこから生まれるかもしれません。同時に、従来型の映像制作にも影響を与えると思います。先ほど、サウンドデザインでの新しい試みについてビルが話しましたが、従来型の4K映画などにおいて、大掛かりな設備が無くても適切なサウンドミックスを作ることができるようになるとどんな映像が作られていくのか、想像してみて下さい」

 「今は実験の時代」というロバーツ氏。「ラッキーなことに、現在VRコンテンツを作っているほとんどの人はAdobeのツールを使っています。我々はカスタマーのフィードバックに耳を傾け、それに応えています」。

 「ネットの配信が可能になったことで、今までに無いほど動画の人気が高くなっています。これからは動画が各企業のマーケティングキャンペーンの柱になってきます。企業のユーザーとのやり取りに動画が使われており、北米では製品のサポートなどに『YouTubeビデオを観てください』というのが一つのトレンドになっています。今は面白い時代になりました。今までのテレビ業界でも、これほど同時にたくさんのことが起きる時代は無かったと思います」。