ニュース
「さわれるテレビ」や「好みの番組との出会い」を可能にする技術
(2014/5/27 21:41)
日本放送協会(NHK)が5月29日から6月1日まで開催する「技研公開2014」から、テレビの新しい楽しみ方などを紹介していたコーナーを中心にレポートする。
なお、8Kスーパーハイビジョン(SHV)や、Hybridcast関連、シート型有機ELなどの展示は、別記事でレポートしている。
“手で触れる映像”への取り組み
映像として表示された立体の形状や硬さなどを触覚や力覚で伝える技術の研究が進んでいる。「力覚提示システム」は、1本の指に対して複数の点の刺激を伝えることで、対象物の角や稜線などの特徴を感じられるようにするもの。
視覚に障害がある人向けに、美術品などの形状を伝えるための技術として提案しているが、それだけでなく、映像を観た人にも追加の情報として触覚で感じることで、よりテレビを楽しむという用途も想定している。
'13年の展示では、5つのアームで支持された指サックのようなデバイスに指を置き、指を動かすとその物体に触れているような感覚が味わえるという内容だった。今回のデモ機は3本のアームで支持された「多点刺激型力覚提示装置」に指を置き、ミラーディスプレイで立体表示された目玉焼き(の模型)の映像に手を触れると、その柔らかさ/硬さなどが感じられるという内容。
さらに、その目玉焼きのどこが硬く、柔らかいかを計測するための「硬さ分布計測装置」も展示。物体表面の硬さを、接触せずに超音波とレーザーで高速に計測。そのデータを前述の力覚提示システムで再現できる。
実際に「力覚提示システム」で目玉焼きの映像に触ってみると、黄身と白身の段差部分など、硬さの違いをしっかり指先で感じられた。目玉焼きは触ったことのあるものなので感動はそれほど大きくはないが、もし「現実では簡単に触れないもの」を触る感覚が味わえれば、映像と組み合わせることで様々な仮想体験ができそうだ。
一方で、よりシンプルなアプローチとして紹介していたのが、体験型展示コーナーの「さわれるテレビ」。説明員に手渡されたコイン上の小さな物体を手に持つと、テレビ画面上で表示されたポップコーンのフライパンがポンポンと弾けるのに合わせて、指先にも弾ける感覚がそのまま伝わる。
仕組みは簡単で、手渡されたのはスピーカーの振動板に近いもの。音の強弱によって振動板が振幅する動きを、手渡された振動子でそのまま感じている。スピーカーの振動板を直接手で触ったのと同じと考えると単純だが、その音声はテレビからではなく、横のスマホでテレビと連動して同期再生。接続したコンポのヘッドフォン出力から振動子に伝えている。
このデモコーナーは、ソファの上にも同様の振動子を配置。映像に合わせてソファが震えることで、より深く映像をリアルに楽しめる一例として紹介している。
視聴者の表情から、興味のある番組をおすすめ
「興味内容の推定技術」は、視聴者がどのようにテレビを見ているのか(視聴状況)を自動的に取得・分析し、番組内容との関係を解析するというもの。視聴者が番組内で興味を持った内容を推定して、興味キーワードとしてタブレット端末に提示する。解析技術の一部は、東京大学と共同で研究を進めている。
「興味を持った」と判断するための方法として、視聴者の「表情」に着目。テレビの前のカメラ(デモではKinectを使用)で撮影した視聴者の表情を「喜び」、「驚き」、「怒り」、「嫌悪」、「恐れ」、「悲しみ」に分類するほか、視線から映像を観ているかどうかも判断。「喜び」や「驚き」などのポジティブな表情から「興味を持っている」と推定。その表情が多く得られたシーンから「興味キーワード」の候補をタブレットに表示。その中から視聴者が好みのキーワードを選択すると、他の番組探しをアシストするという。
キーワードから番組探しをするための技術として、「番組マップの自動生成」と、「番組ナビゲーション」のデモも行なっている。
番組マップは、インターネット上のテキストとテレビ番組表(EPG)のテキストを組み合わせて表示。例えば「肩こり」に関連する言葉に「冷え症」があり、予防法として「ネギ」が関連付けされた場合、肩こりに悩む人がネギを使った「きょうの料理」の番組に出会える。
マップに表示される情報は、多ければ多いほど用途も広がり、より好みに合った番組を探しやすくなるが、多くなると表示が細かくなり、マップとしては見づらくなってしまう。そのため、キーワード同士の意味的なつながりを分かりやすくたどるために用意されるのが「番組ナビゲーション」。カーナビに例えると一つの単語を「現在地」とし、関連するワードを3択の分岐で表示。1つを選ぶと次の3択が表示され、次第に対象を絞っていくことができる。
番組ナビゲーションのサービスは、まずは放送連動ではなくPCやスマホなどのWebアプリとして、特定のジャンルに絞った形で2~3年以内に提供予定。その後、テレビに表示する放送連動アプリといった使い方なども想定している。
「手話CG翻訳システム」は、昨年からの変更点として、“顔の表情”を導入。例えば「強い雷雨」を手話で表現するとき、「強い」を顔で、「雷雨」を手指動作で表すことで、より分かりやすくする。
なお、これまでに開発した手話CG辞書は、NHKオンラインで公開。利用者に対し、使いやすさなどの意見をサイト上で求めている。スマホで表示できることもあり、手話の辞書としてのアクセスが増えているという。
音声認識を活用した字幕制作の高精度化への取り組みも紹介。現在の音声認識字幕は、音声認識の誤りをオペレーターが人力で修正していたが、ニュースなどの場合は記者の原稿と照らしあわせて音声認識の誤りを自動修正することで、より作業負担を減らし、地方放送局も字幕制作システムを導入しやすくするという