ニュース

技研公開2013。手で見るTVやシート型有機ELなど

Twitterの反響を自動解析。ロボットカメラも強化

8型シート型有機ELディスプレイ

 日本放送協会(NHK)は、東京・世田谷区にあるNHK放送技術研究所を一般公開する「技研公開2013」を5月30日から6月2日まで開催する。入場は無料。公開前の28日に、マスコミ向けの先行公開が行なわれた。

 ここでは、フレキシブル有機ELや、裸眼立体視テレビ、手で触れられるテレビなど、注目の技術展示をレポートする。

フレキシブル有機EL

 超薄型のシート型有機ELディスプレイの研究では、昨年は5型の試作機が展示されたが、今年は8型にサイズアップ。さらに、ベンゾキノン誘導体を用いた、高効率な発光層材料を開発し、低消費電力で、長寿命な赤色の有機EL素子を実現したという。

 さらに、酸化物半導体を保護する膜として、塗布型高分子膜を採用。柔軟性に優れており、大面積化に有利な酸化物TFTを実現したという。

シート型有機ELディスプレイのイメージ
酸化物半導体を保護する膜として、塗布型高分子膜を採用

 また、シート型ディスプレイ実現に向けた要素技術として、フレキシブルな有機EL素子の長寿命化に適した素子構造も開発。従来の有機ELは、基板上に陽極、有機層、電子注入層、陰極の順序で積層して成膜していくが、基板材料としてフィルムを使った場合、時間の経過とともに基板側と陰極側の両方向から、大気中の酸素や水分が進入。電子注入層と陰極を劣化させ、寿命を短くしていた。

 そこで、酸素や水分の影響を受けにくい電子注入層の材料を開発。さらに、劣化しにくい陰極用材料を使用。これらの材料を積層して成膜できるよう、陽極と陰極の位置を入れ替えた逆構造とすることで、長期間安定に発光する「iOLED」(逆構造OLED/inverted OLED)を実現している。iOLEDでは基板上に陰極を成膜するため、下地の劣化を考慮しなくて済むという。

iOLED
右下にあるのが新構造デバイスの100日目の写真。一般的な構造のデバイスが劣化しているのに対し、劣化はほぼ見られない
印刷方法を用いた電極形成技術も研究されている

 この結果、通常のOLEDは、100日間大気中にさらしておくと発光面積が約半分になってしまうが、iOLEDは同期間でも劣化しないことが確認されている。

 さらに、印刷方法を用いた電極形成技術も研究。これらを組み合わせる事で、シート型有機ELディスプレイ実現に繋げていくという。

インテグラル立体テレビ

 裸眼で立体視が可能なインテグラル立体テレビ。技研公開の展示ではこれまで、小さなレンズを多数並べたレンズアレーを用意し、そこを通って生成された画像(画素画像群)を、カメラレンズを用いて撮像素子に投影。映像として記録。その映像を、同じように小さなレンズを組み合わせたレンチキュラーシートを貼ったディスプレイに表示し、多視点の立体視映像を表示していた。

 今年の試作機では、この構造が大きく変化。撮像素子と同じサイズの、小さなレンズアレーを開発し、撮像素子の上に配置。レンズを通った画像を、直接撮像素子に投影する事で、レンズアレーと素子の間のカメラレンズが不要になり、解像度劣化が無くなり、立体像の画質が向上。さらに、カメラ自体のサイズも1/10に小型化できたという。

 撮像素子は8Kのスーパーハイビジョン(SHV)用のものを使っており、その素子の上に100×60個のレンズが並んだアレーを装着。レンズ1つに、80×80ドットの画素が含まれている。

小型化したインテグラル立体テレビ用のカメラ
上が新しい小型カメラ、下が従来のカメラ。従来はレンズアレーを通し、カメラで撮影していたが、新しい小型カメラはレンズアレーと撮像素子の間にレンズが無い
小型立体カメラで撮影したリアルタイムの映像も表示された

 また、1つの撮像素子で撮影するのではなく、複数のカメラを用いた多画素の撮像装置も開発。デモでは7つのカメラを用いてレンズアレーを通した画像を撮影し、ディスプレイに表示する事で、立体の見える範囲(視域)を拡大する効果が確認できた。インテグラル立体テレビでは、例えば首を横方向に移動させながら見ると、1つの視点から、次の視点に切り替わる間に、視域を外れ、像が暗くなって見えないスポットが存在するが、複数カメラを用いた映像ではそれが低減されており、繋がりの良い裸眼立体視が確認できた。

 さらに、この技術の活用例として、美術品などの三次元データをインテグラル立体テレビに表示。ゲームのコントローラーで、立体映像を自由に動かし、背後などを鑑賞したり、展示ボックスのようにインテグラル立体テレビを設置。存在しない美術品がそこにあるようにレイアウトするといったデモが行なわれていた。

7台のカメラアレーで撮影した裸眼立体視映像も展示された
コントローラーで三次元データを自由に操作
土偶は存在しないが、そこにあるように見えるインテグラル立体テレビの活用事例

Twitterを解析して番組の評判を分析

 SNSの普及でテレビ番組に対する感想などが、日々大量に投稿されており、そうした視聴者の声を番組に反映させる事は、より良い番組作りに有効だが、つぶやきが膨大な量になると、番組のプロデューサーが1人で読むのは不可能になる。

 そこでTwitterのつぶやきを自動できに解析する技術を研究。番組やNHKのハッシュタグがついているものだけでなく、番組名の砕けた表現も検出する番組照合ルールを用意し、つぶやきと照合させ、テレビの話題であるかどうかを検出。

 さらに、番組名がまったく含まれていない場合でも、EPGに含まれている出演者情報などを用いて番組を特定するアルゴリズムも搭載。例えば「ダウンタウンのこのギャグ、面白い」というつぶやきがあった場合、EPGにダウンタウンが含まれている番組と、つぶやかれた時間から判定。NHKでもBSや地上波と、複数の番組が同時に放送されているが、編成的に同じ出演者が同時に異なるNHKの番組に出る事は基本的に無いとのことで、番組が特定できるという。

 こうした収集したつぶやきを分析し、ポジティブ(好意的)や、ネガティブ(否定的)な意見かなどを集計。各番組に対しての反響をグラフなどで視覚的に把握できるほか、否定的な意見が多い場合は、その代表的なものを表示し、内容を確認するといった事もでき、番組作りに活かせるという。

つぶやき抽出・解析用のアルゴリズム
NHKに関連したつぶやきの数
番組ごとに、好意的なつぶやき、否定的なつぶやきの割合なども表示できる

 検出したデータの構成は、総合テレビのゴールデンタイム1週間の平均で、正式番組名やハッシュタグからの検出が13.5%、省略された番組名からが7.3%、番組名表記無しからは6.7%。一方で、番組の事がつぶやかれていたにも関わらず、検出できなかったものが6.2%、誤検出が1.1%、過検出が4.2%だという(残りの60%以上は番組とは関係のないつぶやき)。

 展示されたバージョンよりも古いものは、NHK内の一部で既に使われており、今後も検出精度や種別分類の精度向上を進めるという。

多視点ロボットカメラシステム

 複数のカメラで同じ被写体を撮影し、その被写体を様々な方向から撮影した映像を演出に活用できる「多視点ロボットカメラシステム」も進化している。

 新たに開発されたのは、1人のカメラマンが被写体をとらえる操作をすると、別の場所に設置された9台のロボットカメラがそれに連動し、撮影する協調制御技術。これにより、サッカーやバスケットのドリブルなど、ダイナミックに移動する被写体をぐるっと取り巻くようなカメラ視点で撮影でき、NHKでは「ぐるっとビジョン」と名付けている。

カメラマンが1台のカメラを操作すると
9台のカメラがそれに連動する

 これにより、例えばダンクシュートを決めた瞬間に映像を止め、シュートを決める選手の姿をぐるっと回りこむように様々な角度から表示し、ドラマチックな映像が作成できる。また、前述のインテグラル立体テレビ向けの撮像システムに応用する事もでき、裸眼立体視のソース映像も撮影できる。

このようにダンクシーンを異なる視点からぐるっと撮影できる

“手で見るテレビ”を目指して

振動する触覚ディスプレイ

 視覚に障害のある人に、地図などの2次元情報や美術品などの3次元情報を、触覚や力覚で伝える研究も進んでいる。データ放送に、地図やグラフの凹凸情報を乗せて送信。無数の突起がそれに合わせて凹凸を作る事で、指で触れて、地図やグラフの形状がわかるデバイス「触覚ディスプレイ」が開発されている。

 今年の展示では、形状の中で特に重要な部分を振動させる機能を追加。例えば地震による津波情報が届いた場合、テレビの表示で、沿岸部に赤や黄色の注意を示すラインが表示されるが、凹凸で作られた日本地図の、注意すべき沿岸部の突起を振動させる事で、触れた瞬間に、「どこに注意すべきか」を伝える事が可能。地図の突起で、目的の店の場所を振動させるといった使い方もできるという。

指を差し込むと、画面の物体の形状が指の腹部分に伝わる

 また、5つのアームを装着した指サックのようなデバイスを開発。この中に指を入れ、デバイス側に美術品などの形状データを入力した上で、指を動かすと、その美術品に実際に触れているような指先の感覚が得られる。

 これは、アームによる押し戻す力や、柔らかさなどを駆使して、5点の刺激で形状を再現する技術で、ディスプレイに美術品の映像を表示し、“現在指でさわっているポイント”をポインタで示す事も可能。触れる事ができない国宝級の美術品や動物などに、触れた気分が味わえるという。

その他

ブルーバックで女性をハンディカメラで撮影

 背景に3DCGを使ったバーチャルスタジオと人間を合成させるような番組も、より手軽に制作できるようになる。

 従来は、車輪を搭載した大型のスタジオ用カメラでブルーバックの人物を撮影し、そのカメラに搭載した各種センサーで、カメラの動きを検出。それに合わせて、ブルーバック部分に3DCGを合成する事で、バーチャルスタジオ映像を生み出していた。

 新たに開発されたのは、ハンディタイプのカメラでも同様の事を可能にするシステムで、カメラに加速度、角速度センサーを搭載し、姿勢角などを検出。さらに、レーザーポインタで床に赤い光を投写し、その光をカメラに取り付けた別のカメラで撮影。床の模様からカメラの立ち位置の情報も取得。そうした位置・傾き情報などを活用し、CGとの合成を行なうもので「M-PIV」と名付けられている。

ハンディカメラでも自然な3DCG背景との合成が可能な「M-PIV」
ハンディカメラの前方下部に重りのようなパーツがある。これは、カメラの向きに関わらず、常に真下を向くようになっているパーツで、レーザーポインタと下向きのカメラを搭載。床に投写したポインタの点から、カメラの位置情報を検出している
奥の机に置かれているのがショルダー型のカメラ。後部にハンディカメラと同じように、レーザポインタと下向きのカメラを搭載している
床の特徴から位置を検出しているため、実風景の中にCGキャラクターを合成するような番組でも使える。ブルーバックの床よりも、屋外の道路などの方が特徴が多いため、むしろ検出は楽だという
素材バンク

 また、撮影した映像を蓄積する「素材バンク」も開発。映像を蓄積するだけでなく、顔検出で、誰が、どの時間映像に写っていたのか、シーン中の要素画像に基づく特徴抽出などを行ない、自動的に映像に各種メタデータを付与してくれるという。他にも、背景映像から被写体を抜き出すための処理なども自動で適用する。

 さらに、前述のM-PIVなどで撮影した、カメラの姿勢や位置情報などのデータも一緒に保存。後でその映像を素材として使い、3DCGと合成する時などに活用できるという。

 そのほか、タブレットなどのカメラを用いたAR(拡張現実)技術にも取り組んでいる。放送画面にタブレットのカメラを向けると、タブレット画面内に、テレビ映像とともにキャラクターが表示され、そのキャラと一緒にテレビを観ている感覚が楽しめる。この技術は「Augmented TV」と名付けられている。テレビとタブレットの同期は、テレビに重畳表示した時刻情報の抽出により行なう。これにより、タブレットの性能に左右されず、高精度な同期を可能にしたという。

 デモでは、AR技術の進んだ世界を描いたアニメ「電脳コイル」に登場する“デンスケ”が、テレビ画面から飛び出して(タブレット画面に)出現するという映像や、NHK技研のキャラ“ラボちゃん”と一緒にテレビを観るという映像を用意。そのほか、ゴルフをしている映像で、画面からボールが飛び出て、手前のホールに入るというデモ映像も使用。このとき、ボールを打った音はテレビのスピーカーから出るが、ホールに入った音はタブレットのスピーカーから聴こえるというように、臨場感を高める工夫もなされている。

「Augmented TV」の展示。“電脳メガネ”をイメージしたというメガネもさりげなく置かれている
テレビ画面をカメラで撮影しているタブレットを傾けると、(ARで)テレビを観ているラボちゃんの横顔が見えた
ゴルフのボールが画面から飛び出してくるデモ

 同人誌やニコニコ動画などで知られる“2次創作”を、パソコンのWebブラウザを使った簡単なユーザーインターフェイスで楽しめるという、SNSコンテンツ創作システムも開発中。

 NHK技研が開発した番組制作記述言語の「TVML」(TV program Making Language)で制作した映像コンテンツを活用したもの。掲示板のようにスレッドを立てた人が、基本となるキャラクターや動画などを投稿すると、他のユーザーは、その構成要素(動画や写真、音楽など)を活用して、2次、3次創作の派生コンテンツを作って投稿したり、評価コメントを書き込むことなどが可能。

 ユーザーが自作した動画や静止画などを使えるだけでなく、子供やPCに詳しくない人でも、簡単な操作でキャラクターの表情や背景などを選び、一つの動画を作れる仕組みも用意される。組み合わせた動画の最後のレンダリングはクラウド上で行なわれるため、動画のプレビューもすぐに行なえるという。

 作成したコンテンツは、SNSの友人と共有したり、他のサイトなどへ投稿するといったことも含めて、広く活用できるようにするための仕組み作りも検討。例えば、NHKのアニメと連動して、登場キャラを使った2次創作の投稿なども考えられるという。

2次創作のコンテンツ制作/投稿システム
簡単な操作でキャラクターの表情やセリフ、背景などを決められる

 昨年のロンドン五輪で採用された「P2Pライブ映像配信システム」は、テレビ放送されない競技を、P2P(Peer-to-Peer/ネットワーク上の端末が相互に直接接続してデータを送受信する方式)を使って効率的に多くの人が視聴できるようにしたもの。17日間でトータル30万アクセスを記録したが、その後の改良によって、配信ストリームを「低品質な基本映像と音声からなる基本階層」と「差分映像の上位階層」に分離。回線が混雑しても途切れにくくなったことで、現在は100万アクセスでも対応可能としている。

 なお、ロンドン五輪当時の配信では、P2Pに対応していたのはPCのみで、タブレット/スマートフォン視聴時はNHKのサーバーから直接視聴するという方式だった。今回の展示では、タブレット/スマートフォンで視聴できるストリームへの変換を他のPCが行なうことで、同じシステム内でタブレット/スマホ視聴もできるような環境も実現したことを紹介。大規模スポーツイベントの中継にも活用できるという。

P2P視聴対応の端末。新たにタブレット/スマートフォンも対応
映像の階層化あり/なしの効果を比較
P2Pライブ配信技術の仕組み

(山崎健太郎/中林暁)