ニュース
8K液晶4枚で20型“立体テレビ”。東京五輪に向け16視点ロボットカメラ開発
(2015/5/26 19:29)
NHK放送技術研究所で5月28日~31日に開催される「技研公開2015」のマスコミ向け先行公開から、メガネ不要で立体視ができるインテグラル立体ディスプレイや、多視点ロボットカメラなどの最新ディスプレイ/カメラのほか、将来の放送に向けて開発中の様々な技術についてレポートする。
8K液晶4枚で、立体テレビがより高精細に
裸眼で立体視が可能なインテグラル立体テレビは、小さなレンズを多数並べたレンズアレーを用意し、そこを通って生成された画像(画素画像群)を、複数のカメラで撮影した映像を、同じくレンズを組み合わせた専用のディスプレイで表示するシステム。上下左右方向に多視点の立体視映像を表示するというのが基本的な仕組み。
昨年の展示では、静止画だけでなく動画に対応したのが大きなトピックだったが、今回の展示は、ディスプレイを従来の約10インチから、約20インチに大型化したのがポイント。8Kで世界最小サイズとする9.6型液晶パネルを開発し、これを4枚並べることで、立体像としては約10万画素相当を実現。レンズで映像部分のみを光学的に拡大することで、ディスプレイ外枠のつなぎ目を目立たないように一体化して表示可能としている。視点の数は上下左右各36ずつに対応する。
使われている液晶パネルは8Kで世界最小サイズとする9.6型で、オルタステクノロジーと共同で開発。解像度は7,680×4,320ドット、画素密度は915ppi。フレームレートは60fpsに対応する。
撮影側も進化しており、昨年は小型カメラ7台での撮影だったが、縦横各8台の64台に増加し、レンズアレーを構成する微小レンズの数も64個に増加。立体像としては約10万画素相当まで高精細な撮影を可能にした。
オルタステクノロジーの高精細/高透過率液晶の「HAST技術」と、NHKの超高精細画像に関する信号処理のノウハウを組み合わせ、小型の8Kスーパーハイビジョン向け直視型液晶パネルを開発。小型モニタなど8K番組制作に活用できるほか、立体テレビ用パネルや、映像を使った“動く図鑑”、カタログなど新しい8Kの応用も目指す。
このディスプレイは将来的には放送用の裸眼立体テレビを実現する技術として研究が進められているが、テレビに限らず、サイネージや教育分野などでの利用も検討されている。立体像の撮影には前述のカメラ/レンズアレイが必要だが、CGの場合はコンピュータ上だけで作成できるため、実写よりもコンテンツを作成しやすいという。
ホログラフィー立体テレビも狭画素ピッチで進化
前述のインテグラル立体テレビ以外にも、専用メガネをかけずに立体映像が楽しめる技術として、ホログラフィーテレビを実現する「空間光変調器」の研究が進められている。
今年は、新たにアクティブマトリクス駆動方式に対応した、低電流動作で狭画素ピッチのスピン注入型空間光変調器を展示。スピン注入型空間光変調器の高密度化を進めたことで、画素ピッチを従来の40%まで狭めた。これによって、様々な方向から立体像を見ることが可能になった。
また、低電流での動作を可能とする「トンネル磁気抵抗効果(2つの磁性膜の間に絶縁膜を挟んだ構造で、絶縁膜に流すトンネル電流の方向によって電気抵抗値が変化する現象)」を用いた新しい光変調素子を画素とするデバイスも開発。各画素に流す電流方向で光変調素子の磁化方向を制御する「スピン注入磁化反転」で動作する。
今後も、狭画素ピッチや多画素化を進め、ホログラフィー立体テレビの性能向上を目指すという。
多視点ロボットカメラは'20年東京五輪での活用目指す
複数のロボットカメラで同じ被写体を撮影し、多視点映像を撮影可能な多視点ロボットカメラも強化。従来はカメラ9台だったが、16台に増加することで、より多くの視点から撮影でき、表現力を向上。カメラの小型化やケーブル本数の削減といった取り回しの改善や、処理映像の高品質化、映像処理速度の向上も実現している。
スポーツ番組では、制作者や解説者が、選手の動きや姿勢に応じたより分かりやすい視点の撮影映像に切り替えて立体的な映像表現が可能となる。また、CGと組み合わせた解説のデモも行なっており、ボールの軌道などを多視点映像と組み合わせて分かりやすく振り返ることができることを紹介している。
現在、撮影から多視点映像出力までの時間は「数十秒」としている。今後は撮影映像や処理後の映像の画質向上を行ない、2020年東京オリンピックでの活用を目標としている。
「素材バンク」で、照明とCGキャラの合成も簡単に
素材バンクは、映像検索や映像加工などの番組制作作業を効率的にするための技術。番組制作に必要な付加情報(メタデータ)を、映像解析やセンサー技術を活用することで自動的に生成/付与するというもので、作業の大幅な効率化が図れるという。
画像の特徴や対象物の名称などのメタデータを、手作業ではなく素材映像の解析により自動で付与するというもの。カメラ姿勢や照明情報など高度な映像加工に必要なメタデータを、映像解析やセンサー技術により自動生成/付与できる。例えば、夕日のシーンにCGキャラクターを合成したい場合、メタデータを使って「夕日」の映像素材を探し、CGと重ねると、キャラクタも夕日に合わせた色合いで表示できる。
映像合成には、カメラの動き、撮影時の照明、被写体の領域などの情報が必要だが、今回の展示では、簡易なセンサーカメラ(照明の位置や強度情報を取得するために周囲環境の明るさを撮影するカメラ)の情報を利用。スタジオを模した場所の照明の色を変えると、CGを合成した映像にもその照明の色合いが反映され、自然な合成を可能にしていた。
この技術は今後も高精度化などを進め、番組制作の現場と連携した実証実験などを行ない、実用化に向けて取り組むという。
8K試験放送開始に合わせ、22.2ch音響ラウドネスメーター
8Kスーパーハイビジョンの'16年試験放送開始を控え、8K映像と組み合わせる22.2ch音声のラウドネスメーターも開発。
8K番組の音の大きさを、制作や送出時に人の感覚量に合わせたラウドネス値で適正に管理するためのメーター。現在は5.1サラウンドやステレオのラウドネスメーターが実用化されているが、基本的には同じロジックで22.2ch対応に拡張するもの。
耳の特性に基づいたフィルター処理と音の到来方向を考慮した重み付けを行なうことで、ラウドネス値を計算。放送局では、ラウドネスメーターを使って番組ごとのラウドネス値をそろえることで、番組間の音の大きさを合わせられるようにする。
既存のラウドネスメーターの重み係数に、上層や下層チャンネルの重み係数を追加することで、8K音響対応のラウドネスメーターを開発。22.2chでも、5.1やステレオと同等という正確さで、番組の音の大きさを推定できるという。この22.2ch音響対応のラウドネスメーターは、ITU-RやARIBなど国内外の団体で標準化を進め、'16年の8K試験放送開始をターゲットとして実用化を目指す。
子供が遊べる体験型展示も多数
NHK技研公開では、子供が楽しみながら映像や技術などを学べる展示も多数用意している。
「音をかぶろう」という展示は、スマートフォンを装着したヘルメット型のヘッドフォンを被ると、22.2ch音声がステレオヘッドフォンから聴こえるというもの。スマホの加速度センサーを使って、頭の向きに合わせて音の聴こえる方向が変わるということを紹介している。
「表情を出して遊ぼう」というコーナーでは、番組を視聴している人が驚いたり笑ったりする表情を、自動的に見分ける「顔表情認識技術」を紹介。番組を見ている人の好みに合わせて、悲しい顔の人に楽しい番組を見せたり、面白い番組で実際どれだけの人が笑顔を見せたかが分かるといった活用が考えられている。
「触ってみよう」のコーナーは、指輪をして魚の映像を触ると、実際の魚と同じような凹凸を体験できる「触覚ディスプレイ」を、わかりやすく体験できる展示となっている。