小寺信良の週刊 Electric Zooma!
第689回:4K映像、具体的に編集どうする? 4K/60pや8Kは? InterBEEでわかったこと
第689回:4K映像、具体的に編集どうする? 4K/60pや8Kは? InterBEEでわかったこと
(2014/11/26 10:00)
InterBEE 50周年の節目
毎年11月に開催される、国際放送機器展「InterBEE」。今年は開催50周年ということもあり、過去最多となる977社の出展数、小間数も最大の1,773小間と、大幅に規模を拡大して開催された。来場者数も過去最多となる、37,959人となり、盛況のうちに11月21日に閉幕した。
今年も3日間取材に通ったが、初日の午前中は若干閑散としていたものの、2日目は雨にもかかわらず、3日間で最多の来場者数を記録。3日目は午後からものすごい混雑で、人気のブース内はもはや歩けない状況となった。
これだけ見れば大成功と言えるかもしれないが、課題も残した。国際放送機器展と名乗る割には、海外からほとんど注目されていない点である。およそ3万8千人の来場者のうち、海外来場者は1,140人。およそ3%しかいない。海外からの取材メディアもほとんどおらず、場内にいてもたまに中国語が聞こえる程度で、外国人の姿はほとんど見られなかった。
プロ映像のイベントとしては、米国のNAB、ヨーロッパのIBCが知られるところだが、もちろん日本からも大勢の業界人やメディアが押しかけていく。最近は中国のBIRTVにも出かける人が増えた。日本メーカーの放送機器は、世界で通用するレベルであるにもかかわらず、今回のInterBEEの活況もほぼ日本国内需要だけでしかないところが、出展者側としては悩ましいところであろう。
さて今回はInterBEE 2014のレポートをお送りするわけが、あまりプロ機材のことばかり書いても、関係ない方には何のことやらわからないだろう。そのあたりはプロ向けのメディアをご覧頂くとして、ここではもう少しコンシューマ寄りの話題をまとめてみたいと思う。
具体的に編集どうする? のフェーズになってきた4K
昨年末から今年にかけて、各メーカーからコンシューマ市場にむけて、4Kのカメラが次々にリリースされてきている。本連載で取り上げただけでも、ソニーでは「FDR-AX1」、「FDR-AX100」、「α7S」、パナソニックでは「DMC-GH4」、「HX-A500」、「DMC-FZ1000」がある。それ以外にも「GoPro Hero4」、スマートフォンの「Xperia Z2」、まだレビューしていないがパナソニック「HC-Z1000」、「DMC-LX100」も控えており、デジカメだビデオカメラだといった区別はもはや意味がなくなってきている。
ただ、これまで発売されたコンシューマ向けの4Kカメラのほとんどは、フレームレートが30pである。一方プロの世界でも、デジタルシネマ分野であればフレームレートは24pだ。
フレームレートが少なければ、今までのPC環境でも十分に編集が可能だ。しかし4Kのテレビ放送を意識すると、4K/60pを扱っていく事になる。すでに4Kのテレビもある程度売れてしまっているわけだし、もう家庭に4K/60p再生環境は存在する。コンシューマ向けの4Kカメラも、来年は60pを目指していく事になる。
コンシューマだと撮ったものがそのまま再生できれば済むだろうという部分もなくはないが、じゃあそれを何かに保存しときましょう、いらないところはカットしたいよね、となったときに、4K/60pの映像をどうやって編集していくのか。
これは本当に課題で、筆者自身もどうすればいいのかわからない。丁度僚誌PC Watchの企画で、4Kが編集できるPCをパソコン工房さんに作っていただいた。
CPUにXeon E5-2687Wv3(3.1GHz、10コア、25Mキャッシュ)×2、GPUにGeForce GTX 970 4GB GDDR5を搭載する、100万円越えのマシンを組んでいただいたが、それでもプロ用記録フォーマットであるXAVCの4K/60pの映像は、1ストリームを4Kテレビにリアルタイム表示するのがやっとで、画面合成した際にはもうリアルタイムでは動かないということがわかった。
そこで、今回のInterBEEでは、プロは実際にどうやって4K/60pを編集しているのか、そのあたりを取材してみた。
実際に4K/60p作品を手掛けたクリエイターに聞く
まず最初に、Adobeブースで講演された、アートディレクター佐藤隆之氏、映像プロデューサーの藤本ツトム氏にお話しを伺った。今回のInterBEE 2014に合わせて公開された4K/60pの映像作品「剣道 -KENDO-」は、藤本氏が撮影監督と編集を、佐藤氏がVFXを担当されている。講演テーマが「インテル最新環境とAdobe Creative Cloudで実現する4K60p映像制作」ということで、まさに筆者の知りたかった事をご存じのはずである。
なお、具体的なワークフローに関しては、すでに西田宗千佳氏の記事が掲載されているので、そちらが参考になるだろう。
今回の作品で実際に使われたマシンは、米国でグラフィックスワークステーションを作っているBOXX社のAPEXXというマシンだ。
【マシン名】BOXXAPEXX 4 7901 |
【CPU】Intel Xeon E5-2687W×2 |
【メモリ】DDR4-64GB (16GB×4) |
【GPU】NVIDIA GeForce GTX980 (4GB) |
【ストレージ】 システム用:Intel SSD DC S3500シリーズ 800GB データ用:Intel SSSD DC P3700シリーズ 2TB(PCIe) |
スペック的には、パソコン工房で組んでいただいた上位バージョンのマシンと、ほぼ同じ構成である。
――このマシンを使って、4Kのモニタリングはどうされましたか?
佐藤氏(以下敬称略):今回の制作にあたっては最初から4K/60pのプレビューは難しいというお話しは聞いていたので、4K/30pでのモニタリングで。60pの動きに関しては、HDにダウンコンバートしてから動きを確認するという方法で行ないました。
――なるほど。面的な仕上がりは4K/30pで、動きはHD/60pで確認して、頭の中で仕上がりを想像するという事ですね。藤本さんはいかがですか。
藤本氏(以下敬称略):編集でも4Kで仕上がりを確認するという理想的な環境がなかなか揃えづらいというのは同じです。モノとしてはあっても、組み合わせるとうまくコントロールできなかったり。
ただ、僕個人が一番見ていきたいのは、色なんですね。撮影もするものですから、そこが大きくブレてしまうといやなので。そうなるともうHDでもいいので、色をきちっと出してくれるモニター環境を優先しました。
ですから4K/60pで実際に出してプレビューを確認するというのは、本当に最後の段階でした。できればワークフローの合間合間に4K/60pで確認できるポイントを入れたいのですが、そのためのモニターもちょっといいのが……。でもここ2~3カ月で出そろってきた感じがあるので、どれかセレクトしないと、とは感じています。
――実際に4Kでモニターされたのは、テレビですか、PCモニターですか?
佐藤:両方でした。今回会場ではレーザープロジェクタで上映することになっていましたし、後々Webサイトにもアップすることがわかっていましたので、ガンマが違う両方で美しく見えるバランスを取りたかったのです。
――今年出たNVIDIA GeForce GTX980/970を採用したグラフィックスカードで、ようやくHDMI 2.0の出力がPCから出せるようになりました。最高4:2:2/12bitが出せる。ただそこに4Kテレビを繋いでも、PC側のガンマとテレビ側のガンマは相互に連動できるわけではありません。そのへんはどう考えていけばいいんでしょう。
藤本:僕は元々出身が写真なので、まず自分の環境でリファレンスとしているのは、カラーマネージメントがしっかりできるEIZOのColorEdgeですね。それできちんと色を覚えてから、ポストプロダクションなどへ行って作業します。
ただポストプロダクション側できちんとしたリファレンスがあるわけではなく、いろんなメーカーの4Kテレビをずらっと並べた中で、どれも問題なく見えるようにするという……。それだけまだトータルでコーディネートできている環境がないなぁと感じています。
今までは、「4Kが走ります」、「カット編集できます」ということでOKだったんです。でもこれから本格的な絵づくりが求められてくるようになってくると、何も足りてないんだなというのが、率直な印象ですね。
4K/60pで編集できるの? できないの? と言われれば、できるということにはなる。ファイル的な「操作」は可能だ。だがオリジナルのフレームレートで、オリジナルの解像度できちんと確認しながら色もいじり、合成もし……という、プロの映像の編集行為として当然保証されなければならない動作を求めると、全くHDのようにはいかない。まさに藤本氏のおっしゃるように、「プロとして足りているか」という問いに関しては、「足りてない」というのが現実として降りかかってくる。
8Kの編集は可能か
4Kの編集に苦しむ一方で、総務省およびNHKは、8Kへの準備を着々と進めている。4K×4となる8Kでの編集は、どうなるのだろうか。
GrassValleyのブースで、8K編集用にチューニングされたターンキーシステム、「HDWS 8K」を参考出展しているというので、さっそく見に行った。ターンキーとは言っても、ストレージは別にIBMのサーバと、8Gbpsのファイバーチャンネル4本で接続されている。グラフィックスカードはNVIDIA Quadro K2000が3枚入っており、1枚は編集画面用に、残り2枚で4K×4を出力している。
4Kディスプレイ4枚を田の字型に組み合わせたプレビュースクリーンでは、8Kの映像が表示されてはいるが、60pでは表示できていなかった。見たところ、30p程度である。編集のUI上では縮小された映像で再生されるため、編集作業自体はできるが、シングルレイヤー単一の映像でも、8K/60pのリアルタイム表示が難しい。
ストレージ能力としては、GrassValley HQXコーデックを使えば8K×3ストリームぐらいの余裕がある。またCPU負荷としては、1ストリームで40%程度の負荷であった。だが、ディスプレイ表示が間に合わない。
4Kでも複数のストリームを同時に再生することは難しいわけだが、当然8Kではもっと難しくなる。PinP(小画面表示)やテロップを入れただけでもCPUパワーが足りなくなるのが現状だ。
さらに状況を難しくしているのは、HDMIやディスプレイポート経由では、ディスプレイ側のクロックとPC側のクロックが厳密に同期しない点である。60pの表示となると、微妙なクロックのズレが時間軸の歪みとして現われる瞬間がある。実際には、数秒間に1回はコマがジャンプするという現象が起こる。GrassValleyでも今この問題の解決に取り組んでいるが、完全にゼロにするのはなかなか難しいようだ。
一方でNVIDIAには「G-SYNC」という技術がある。これはGPUとディスプレイが通信して、ディスプレイのリフレッシュレートをGPUに同期させるものである。現在はゲームに応用されているに過ぎないが、この技術は4Kのプレビュー表示に応用できるかもしれないと個人的には考えている。だが、どこもまだ着手していない。
したがって現時点できちんとした映像出力をPCから出そうとすれば、Blackmagic Designの「DeckLink 4K Extreme 12G」のようなI/Oカードを追加して外部同期をかけ、同じく同期がかかるプロ用モニタに表示させるしかない。だがそれでは、表示するだけでものすごいコスト増になる。
表示コストを下げる試み
一方で4K 24p/30pの扱いは、現状のPCでも難しくないと書いた。現在デジタルシネマの領域では、RAW収録が標準である。RAW収録とは、カメラのセンサーから出た信号を、なるべくいじらずに収録する方法だ。デジカメにおいてRAWに撮るのと同じ考え方である。
ただRAWで撮影した映像は、人間の目からすると黒浮きして低コントラストで色味も鈍い映像なので、撮影現場で仕上がりがイメージできない。仕上がりがイメージできないと、その撮影がOKなのか判断ができないので、先に進めない。
したがって映画の撮影現場では、バンやトラックに色をいじるためのスタジオ設備を詰め込み、車の中で最終の色味がイメージ出来るようなセットを作って、乗り入れてくる。このような、現場である程度色をいじって確認するという方法を、「オンセットグレーディング」という。
これまでオンセットグレーディングができるマシンは、デスクトップPCしかなかった。ただ標準的な色味に戻して再生するだけでも、車でPCを運んでこないといけないわけである。当然撮影現場に車が入れない場合は、監督以下カメラマンやギャファー(照明)などがゾロゾロとオンセットグレーディングの車まで移動して、試写することになる。1カットずつこれをやるのだから、大変だ。
キヤノンでは、キヤノンのカメラで撮影したlog映像をすぐに確認できるよう、「Cinema Raw Development」というアプリケーションを無償配付している。これのVer1.3では、Intelの第4世代Coreプロセッサ内蔵GPU「Intel Iris Pro Graphics」に最適化したことで、より高速にRAW撮影した映像が再生できるようになった。
これまでIntel Iris Pro Graphics搭載プロセッサは、デスクトップPCかノートPCにしか搭載していなかったが、VAIO株式会社が試作したタブレットPCが、タブレットとしては初めて採用した。つまりタブレットで4K/24pのRAWファイルをリアルタイム現像しながら、24コマで再生できるようになったのだ。
キヤノンブースの一角に専用ブースを設けて、VAIOのタブレットが展示されていたのは、そういうわけだったのである。あまりにも普通に再生できているので、意味がわからなかった来場者も多かっただろう。だが、片手で軽く持てるタブレットで、4KのRAWをリアルタイムで現像しながら24pで再生できるというのは、大変なことなのだ。
まだこのタブレットの最終仕様がどういう形で出てくるのかわからないが、オンセットグレーディングがタブレットでもできる可能性が出てきたのだ。
総論
これまでハイパフォーマンスなPCというのは、主にPCゲーム用途として作られてきた。NVIDIAの優れた技術も、ほとんどがゲーム内で「不用意に死なない」ために開発されると言ったら言い過ぎだろうか。そのPC用の技術を4K映像に最適化することで、大きなマーケットが生まれる可能性がある。その点に関しては、NVIDIAよりもIntelの方が熱心に取り組んでいるように見える。
これまで映像業界は、4Kの非圧縮信号をリアルタイムで伝送して、どうにか生放送するというところに注力してきた。オリンピック中継はそれで済むかもしれないが、現状のテレビ番組は大半が編集番組である。編集できないことには、1日ぶんの放送プログラムが埋まらない。
未来の映像は、解像度やデータの仕様はだいたい決まった。これまでは専用ハードウェアでぶん回すことだけ考えてきたが、できるできると高をくくっていたノンリニア編集が、プロレベルには全然届いていないことが明らかになったのは、今年のInterBEEの収穫であった。
もちろん、PC/IT技術は年々高速になっていくだろう。それがどこの段回で、4K/8K処理と合致するのか。PC/ITハードウェア開発のメインストリームは米国と台湾にあり、日本のメーカーだけはもどうにもならない問題である。
コンシューマではまだまだ4Kに対する熱狂が足りてないが、プロのほうでは逆に冷静に現実を見るフェーズに入ってきたと言える。