小寺信良の週刊 Electric Zooma!

第659回

Zooma!:ズームレンズ、ズームすること、ズームする人、ズズーンの造語

NAB2014閉幕。ラジコンヘリ4K空撮。見えてきた「4K映像のIP化」トレンドとは

4K放送豊作の年

会場のラスベガスコンベンションセンター

 日本ではネットの勢いに押され、テレビの凋落ぶりが指摘されて久しい。もちろんこの傾向は日本に限ったことはではなく、各国とも、もはやテレビはメディアの王様では居られないという認識のもと、なんとかネットに食い込もうと躍起になっている。

 一方その中で放送側からの新しいイノベーションとして期待されているのが、4K放送だ。通信ではできないところへ行く、というのが放送業界の一つのミッションとなっている。

 従来4Kはデジタルシネマの文脈で語られる事が多かった技術だが、今年のNABは放送4Kの実現へ向けての具体的な製品が多かった。また映像業界の先を占う意味でも、見所の多い展示であった。

キヤノン、シネマと放送のハイブリッドレンズを発表

Deliver Broadcastが今年のテーマのキヤノンブース

 2年前に映画用カメラシステムとして、CINEMA EOS SYSTEMをデビューさせたキヤノンだが、実は放送用レンズの歴史も相当長い。その一方で4Kの放送用レンズというのはこれまでラインナップがなく、実際に4K放送の映像制作では、シネマレンズをなんとかして使うとか、静止画用レンズでなんとかするしかなかった。

 これが4K試験放送などを経て、大きな課題であることがわかってきた。つまり放送のカメラマンがシネマレンズや静止画レンズなど与えられても、撮影スタイルが違いすぎてうまく使えないのである。

ソニー PMW-F55に装着された「CN7×17 KAS S/P1」

 そこでキヤノンは、シネマ用途としての拡充も狙いながら、放送にも使えるハイブリッドのレンズ「CN7×17 KAS S/P1」、「同S/E1」を開発した。P1がPLマウント、E1がEFマウントである。

 焦点処理17〜120mmの光学7倍ズームレンズだが、最大の特徴は放送用レンズ特有のズームレバーなどを装備するドライブユニットが着脱できる事だ。これにより、フォーカスやズームのサーボ操作や、アイリスのリモート操作が可能になる。シネマスタイルの時は取り外し、放送の時は装着することで、1本でどちらでも使えるレンズとなっている。

 装着時はフォーカス、アイリス、ズームギアの位置合わせをする必要はなく、任意の回転位置で装着可能。ただし動作保証のため、レンズとドライブユニットは同一シリアルナンバーの組み合わせでしか動作しない。またドライブユニットを動作させるため、別途外部電源が必要になる。

 なお同様のドライブユニット着脱可能レンズは、すでにフジノンが2012年から現在まで「ZK2.5×14」、「ZK4.7×19」、「ZK3.5×85」(PLマウント)の3本を製品化している。映像業界では、映画と放送は完全に分離しているので、両方やる撮影会社というのはほとんどないと思うが、レンタル会社にとっては1本で2業界に貸せるレンズはおいしいはずだ。
 放送業界としても、従来の撮影手法が使えて4K解像度が得られるこれらシネマ兼用レンズは、需要があるだろう。

4Kフォーサーズへ舵を切るJVC

新商品を多数出展したJVCケンウッドブース

 JVCの4Kカメラと言えば、ハンドヘルドの「GY-HMQ10」(レビュー)と、ニコンFマウントを採用した「GY-HMQ30」(レビュー)があったが、今回のNABでは新開発のスーパー35mmサイズの4Kセンサーと、マイクロフォーサーズマウントを組み合わせるという方向性を打ち出した。

 元々JVCケンウッドは、2012年に当時オリンパスの100%出資子会社であったCMOS開発メーカーの米アルタセンスを買収していた。ここが4K用として、今回スーパー35mmサイズのCMOSセンサーを開発したというわけだ。

 フォーサーズが17.3×13mmの4:3なのに対し、スーパー35mmは24×14mmである。縦は1mmしか違わないが、横が7mm近く違うので、マイクロフォーサーズと言えども、かなり大きなイメージサークルを持ったレンズでなければ撮影できない。元々収差を嫌ってイメージサークルを大きめにとっているレンズも多いだろうが、それでも撮影可能なレンズは限られるだろう。推奨レンズはJVC側で検証していくという。

 また今回のセンサーでは、4Kに必要なピクセル数の136%に相当する画素数で撮れるため、それを縮小することで解像度を17%向上させるという。4K撮影は最高60pまで、HD撮影では最高240pまで撮影可能。

 「GY-LSX2」は、スーパー35mm 4Kセンサーとマイクロフォーサーズマウントを搭載した、ハンドヘルド型カメラ。こちらは4K撮影機能としては24p/30pとなる。1枚のSDHC/SDXCカードに4Kを記録し、別カードにHD/SDを記録できるデュアルコーデックシステムで、HDサイズのプロキシ記録も可能。ハンドル部分は例によって取り外し可能となっている。

 「GY-LSX1」は、同じスーパー35mm 4Kセンサーを使いながら、PLマウントを採用する映像制作用カメラ。映像制作とは、報道よりもじっくり撮影する番組用という意味で、ドラマやドキュメンタリー撮影などを意味する。こちらは3,840×2,160のUHDサイズだけでなく、4,096×2,160のいわゆるDCIサイズでも撮影可能で、最高フレームレートは60pまで。HDは240pまで撮影できるので、24pで再生すれば10倍速スローが得られる事になる。記録はSDHCかSDXCカードで、出力はHD-SDI×4とHDMI 2.0となっている。

レンズ交換式ハンドヘルドタイプ「GY-LSX2」
映像制作向け4Kカメラ、「GY-LSX1」

 「GW-SPLS1」はカメラヘッド分離型の4Kミニカメラシステム。元々はある局から依頼されてラジコンヘリの空撮用カメラを特注で作ったものがモデルとなって、製品化することになったという。

カメラヘッド分離型の「GW-SPLS1」
特注で制作した元モデルも展示
ジンバル込みのシステムカメラ、「GW-GBLS1」

 これはスーパー35mmセンサーとマイクロフォーサーズの組み合わせで、4K/60pまでの撮影が可能。折りたたみ可能な7型モニターを備え、カメラケーブルは標準で5m、最高で20mのものを用意する。こちらも記録はSDHC/SDXC1枚で、もう1枚にバックアップ記録やカメラデータ、HDプロキシなどを記録する。

 これにジンバルを組み合わせたシステムが「GW-GBLS1」。ジンバルとは、カメラをパン、チルト、ロールさせるための“モーター制御されたカメラ台”とでも言うものである。これをラジコンヘリの下部などに取り付けるわけだ。リモコン操作でカメラの方向を決めるだけでなく、ヘリ特有の揺れもジャイロセンサーを使ってセンシングし、吸収する役割を果たしている。

 カメラとジンバルを一体化することで、カメラ内の手ぶれ補正であるX/Y方向のシフト補正とも連動させ、最高5軸での補正を可能にするという。ジンバル部分やカメラユニットも含め、およそ半分ぐらいの重量にすべく設計の見直しを進めており、今年冬から来年春頃までの商品化を目指す。

「GW-GBLS1」の実際の動き。これだけ動かしてもカメラは水平のまま

 またラジコン空撮としてだけでなく、手持ちのスタビライズシステムとしての開発も進めている。現在このようなジンバルを利用したカメラリグは、Freeflyという会社がMOVIというシリーズで商品化しており、今年のNABでは類似商品が多数出展されていた。

 ただ、カメラ内の手ぶれ補正データを取り出してジンバルの動きと連動させることはカメラメーカーにしかできないので、ここにJVCのアドバンテージがある。

映像をIP化すると何が起こるか

 ここからはちょっと見方を変えて、映像のIP化を利用したソリューションを2つご紹介する。

手のアクションだけで自在に画像を操れるVision Presenter「PWA-VP100」

 ソニーブースの入り口付近で展示されていたのが、Vision Presenter「PWA-VP100」だ。展示ではソニーブース内のあちこちからIP伝送で送られてくる映像を、4Kテレビ上にマルチスクリーンにして表示していたが、表示はプロジェクタでも可能。これだと単なるモニターにしか過ぎないが、テレビの前に立って、表示されている小画面を、大画面のほうに運ぶように手を動かすと、指定の映像が大きく表示される、手を横に振るとパワーポイントのページがめくれるなど、複数の映像の入れ替え操作ができる。

 映画「マイノリティ・リポート」でトム・クルーズがファイル調査する際に、空中に投影された資料をアクションで入れ替えながら操作していたシーンをご記憶の方も多いと思うが、やってることはまさにアレである。ファイルの置き場は完全に自由ではなく、今は決まった枠にはめ込まれることや、画像が空中に浮いてないといった違いはあるが、それは時間の問題であろう。

モニターの上に設置されたセンサーが人の動きを見張っている

 アクションを検知しているのは、モニターの上に設置されたセンサーで、これは汎用品を利用しているという。今はテレビ会議などビジネス用途を想定しているが、学校教育などに応用しても面白いだろう。

 このシステムのポイントは、映像をIPのままで扱っている事である。伝送のみIPで、ベースバンドの映像信号に戻してからマルチ画面処理を行なうと、4Kの映像スイッチャーやDMEをリモートで動かすことになり、大がかり過ぎる。だがIPのままで処理すれば、画面処理を簡易化できるほか、各映像の同期も不要で、双方向に制御信号を伝送することができる。元々ソニーは数年前に「NXL-IP55」という映像をIPで伝送できる機器を開発し、専用LSIも開発している。

 映像をIP化することで、低コストながらこれまで考えられなかったインタラクティブ性が実現できる一例と言えるだろう。

 もう一つご紹介したいのが、JVCのHDカメラ「GY-HM850/890」に搭載された、IP伝送技術である。元々JVCは早くからカメラにネット回線を使ったストリーミングやFTP機能を実装してきたが、それが米国で大きく注目を集め始めた。

モバイルルータ1つで遠隔地とライブ中継

 ブース内のデモンストレーションでは、GY-HM890のハンドル部分にあるUSBポートにVerizonのモバイルルータを1つ差し込んだだけで、LTE回線を使った映像伝送で東海岸とラスベガスを結び、掛け合いによる中継を行なっていた。LTE 1回線のみを使用した割には映像は鮮明で、ディレイも殆ど感じさせない。従来ならばTVU-Packといった製品を利用して、複数キャリアの回線を束ねて伝送しなければ、とてもクオリティが確保できなかったところである。

 これの秘密は、ZixiというIP伝送におけるパケットロスを補償するプロトコルを導入したからだ。カメラ側にZixiのフィーダーと呼ばれるソフトをインストールしておき、クラウド上にあるZixi Broadcasterというサービスを経由したのち専用レシーバで受信することで、パケットロスを補償する。

 ポイントはパケットのプライオリティ付けにある。すべてのパケットを守ろうとすると、リトライなどが頻繁に発生してどんどん遅延してしまうが、重要なパケットとそうでないパケットを分けて、重要でないパケットロスはレシーバ側で補間処理を行なう。例えば放送では、音声が一定時間途切れると放送事故になってしまうため、オーディオのパケットはプライオリティを高く設定しているという。

 実際に1%のパケットロスを人工的に作り出し、それをZixiで補償したものを拝見したが、そのままでは映像が頻繁に止まったりノイズが乗ったりするところ、補償された映像はスムーズに表示されている。Zixiのコーデックには複数のモードがあり、1秒のディレイでは1%程度しか補償されないが、ディレイ2秒で5%ぐらい、5秒だと30%ぐらい補償できるという。

Zixiのパケットロス補償デモ。左が1%パケットロスした映像、右が補償された映像
中央ProHDロゴがあるのが「BR-800」

 JVCではZixiに対応したサーバ「BR-800」を開発した。HM890などのZixi対応カメラからのストリームをこのサーバで複数受信することができ、IPのままで記録やルーティングも可能。またここから複数のストリーム出力が可能で、IPベースの配信であれば、伝送からいったんベースバンドに戻す必要もない。

 なおZixiのフィーダーは、すでに発売済みのGY-HM650にも次期アップデートで追加されるという。

総論

 放送と通信は、メディアとして融合するのは日本では抵抗感が強い。特に放送が通信に歩み寄るという方向性はなく、4K放送を武器に再び国民の注意をテレビに向けることで中心的立ち位置を取り戻そうとしているように見える。そのスタンスの中で、通信も一部テレビに取り込もうという、どっちかというと上から目線の話のように感じている。

 諸外国の放送はすでに通信への歩み寄りを見せているところだが、それとは別に4Kで放送をやるぞという機運は世界的にも高まってきており、今回のNABでも放送4Kにフォーカスした製品が数多く出展された。これまでのシネマ4Kをベースに、米国でも新しいビジネスターゲットとして再び放送にスポットライトが当たり始めたというのが、今年の大きな動きである。

 一方技術的な面では、これまでベースバンド、すなわち銅線を使って非圧縮で映像を伝送するという方法が、4Kでは非現実的になり始めており、IP化してしまおうという動きも高まっている。

 IP化してしまえば、その先は映像専用機器ではなく、通信機器でパケットとして扱えるようになるため、映像の分配や切り換えといったバックボーン機器が破格に低価格にできる。またリアルタイム処理であっても、専用ハードウェアとプロセッサでぶん回す世界から、サーバやクラウドで処理してから結果だけをベースバンドに戻すという事も可能になり、カメラから後ろの映像専用ハードがどんどん不要になってくる。

 つまり映像のIP化によって、プロ業界ではそれに乗れるメーカーと乗れないメーカーで、ここ数年の間にガラリと業界地図が塗り替えられる可能性があるというわけだ。極端にわかりやすい話をすれば、ビデオカメラにEthernet端子や光端子が付き、複数の映像もネットワークケーブル1本で伝送する世界が、まもなくやってくる。

 プロの映像業界の年表的には、映像信号がデジタル化され、D1 VTRが登場したのが1986年、1990年頃に広く普及した。HDCAMによってHD化が始まったのが1997年、放送開始が2001年である。そこからRED ONEの登場で、デジタルシネマの4K化の波が訪れたのが2009年で、およそ10年単位で大きなイノベーションを迎えているわけだ。

 今後はこれに放送の4K化が続き、映像のIP化が主流になるのは、2020年よりも早いだろう。おそらく2016年のリオデジャネイロ オリンピックで4K IP伝送の実戦投入、2018年の平昌冬季オリンピックあたりでは当たり前になっているぐらいのスパンではないかと想像する。

 コンシューマ技術ではすでにストリーミング伝送が主流となっており、スマホから直接生放送などしているわけだから、ある意味とっくにIP化しちゃっていると言える。もちろんこれは低ビットレートだからできているわけで、プロとなれば色々規模が違うわけである。

 これから放送技術は、先行する通信技術を追いかけて、デジタル化に続く大きなイノベーションを迎えていくところだ。

小寺 信良

テレビ番組、CM、プロモーションビデオのテクニカルディレクターとして10数年のキャリアを持ち、「難しい話を簡単に、簡単な話を難しく」をモットーに、ビデオ・オーディオとコンテンツのフィールドで幅広く執筆を行なう。メールマガジン「小寺・西田の『金曜ランチビュッフェ』」( http://yakan-hiko.com/kodera.html )も好評配信中。