麻倉怜士の大閻魔帳
第55回
パナソニック×Amazon提携。2024年テレビの鍵は「コンテンツファインディング」
2024年2月15日 08:00
現地時間1月7日~10日までアメリカ・ラスベガスで開催されたCES 2024。昨年に続いて現地で取材した麻倉怜士氏が、現地取材した様子を振り返る。今回はパナソニックやキヤノンのブースで印象的だったものを紹介する。
――前回は2024年の有機EL競争や透明ディスプレイなどの話を中心に伺いましたが、ほかにCESで印象的だったモノやブースはありましたか?
麻倉:一番驚かされたのはパナソニックです。
CESのプレスデー、一番最初にカンファレンスを行なうのはLGで、彼らはたくさん“モノ”発表するので、ここは毎年面白い。その次にカンファレンスを行なうのは、大抵パナソニックですが、この10年くらいはサステナビリティやSDGsを中心とした話ばかりで、正直“息抜き”気分で参加していました(笑)。朝が早かったので、ちょうど良い寝どころでした。最後の最後に、ほんのちょっとだけアメリカ市場に出すテレビやカメラの話をするくらいだったのです。
それが今年はまったく違いました。当然、サステナビリティの話はカンファレンスの前半にありましたが、50分程度あったカンファレンスの中盤、25分を過ぎたころにテレビの話題がドーン! と始まりました。目が覚めました(笑)。これは主役級の扱いですよ。テレビのほかにシェーバー、AI電子レンジ、カメラと、半分以上が製品に関する話でした。
そのなかでも一番大きな話題はFireTV OS、つまりアメリカ製のOSを採用したこと。これまでテレビに関する話題は、どこのパネルを使っているか、どんなプロセッサーを積んでいるか、あるいはハリウッドで認定されたといったものが多かったのですが、今回はFireTV OSの話が中心でしたね。
あとから豊嶋さん(パナソニック エンターテインメント&コミュニケーションの豊嶋明社長)に話を聞いたところ、FireTV OS採用の鍵は「コンテンツファインディング」とのことでした。
これがキーワードになっていて、これまでも「観たいものを探す」という行為はかなり難しいことでしたが、年を経るごとにどんどん難しくなっています。特にネット配信されているコンテンツの増加量がとんでもないことになっていて、例えばNetflixを覗くと、あまりにコンテンツが多くて「どれを観れば良いんだろう」と呆然と、私はしています。
この現状について、パナソニックは危機感を抱いていて、だからFireTV OSを採用したそう。テレビ用のOSとしてはGoogle TV/Android TVなどもありますが、そのなかで比較的コンテンツに強いのがFireTV OSなのです。このOSが特徴的なのは、Amazonが得意な履歴参照型であること。つまり履歴からの推薦機能です。
豊嶋さんによれば、OSには3つのコンテンツファインディング能力が求められると言います。ひとつは放送に関するもので、これはパナソニックも以前から取り組んでいます。ふたつめがユーザージェネレート映像、つまりユーザーがスマホやカメラなどで自分で撮影した映像コンテンツ。このふたつについてはパナソニックが開発を担当する。最後はネット配信のコンテンツで、ここはFireTV OSが担当し、分業する形になります。
単にFireTV OSを採用するのではなく協業することで、放送もネット動画も見る日本のユーザーが、トータルでコンテンツを発見できるような道を作りたいと、豊嶋さんは言っていました。
実はFireTV OSを採用するという話自体は、2023年のIFAで耳にしていました。ただ紹介の仕方も軽く、採用モデルもヨーロッパの1モデルだけだったので、リポートを差し控えていたのです。それがこんな大きな話になるとは(笑)。関係者にその話を聞くと、「IFAの時点で、CES 2024で大々的に発表することが決まっていたので、当時は軽く触れる程度に留めました」とのことでした。
――もしIFAの段階でパナソニックの“真意”を見抜いていれば、大スクープでしたね。
麻倉:いずれにしても、コンテンツファインディグというのはすごく重要な要素です。アメリカ市場への再参入が視野にあるから、CESで発表したのでしょう。でもアメリカ市場はもの凄く、価格コンシャスですから、かなり難しい。そこで、Amazonの販売力に頼むという作戦かもしれません。
それはともかく、コンテンツ・ファインディングで今、勢力を広げているのがTiVo OSです。もともとRoviがやっていたコンテンツファインディグの手法があって、これは自然言語処理を採用していました。
Roviは映画に関する巨大なデータベースを持っていて、聞くところによると、ひとつの映画に関して、専門家が数人で検証して、データベースに落とし込んでいるそう。これにナレッジベースという連想手法を採り入れました。例えば「アーノルド・シュワルツェネッガーが出ている映画で『I'll be back』とかいうセリフがあったな」という、あいまいな検索の仕方でも「ターミネーター」が検索結果に出てくるのです。
このTiVo OSは、まずトルコのテレビメーカー・ベステルが採用し、昨秋にはシャープもヨーロッパで採用。今年は中国のKONKAが全世界で採用しています。
そしてテレビ業界以上にTiVo OSが人気なのが自動車業界です。コネクテッドカー向けの「DTS AutoStage Video Service Powered by TiVo」を、BMWとフォードが採用しました。
というのも、テレビの場合はリモコンを使ってさまざまな操作ができますが、自動車の場合は、自動運転でない限り、リモコンを使って操作している余裕はないわけで、必然的にタッチ操作になります。でも、今のユーザーインターフェイスでは、どこを操作したら見たいコンテンツにたどり着けるのかが分かりにくい。そういうときに声を使ってあいまい検索ができれば、格段に利便性が上がります。
つまり家よりも、車というシチュエーションのほうが、あいまい検索の必要性が高い。そしてコンテンツファインディグは、そういった状況までカバーできるようにならなければいけません。
また、今後はAmazonが得意とする履歴参照型だけでなく、あいまい検索に加え、「これはあなたがまったく観たことないジャンルだけど、ツボにハマると思うよ」というような、視聴履歴だけでは分からないユーザーの好みを、AIを駆使して推測してオススメする手法も求められると思います。
――パナソニック以外にも印象的だったブースはありますか?
麻倉:日本メーカーの展示では、キヤノンも面白かったです。去年はコンセプチュアルな内容でしたが、今年は違いました。
キヤノンブースが面白いのは、5~6年先のカメラが展示されていること。例えば、製品化されている「PowerShot PICK」や「PowerShot ZOOM」といった尖ったモデルも、5~6年前のCESに展示されていました。CESに展示して市場の反応を見つつ、製品化に向けて磨きをかけていくというのが、キヤノンの手法でした。
しかし、去年はそういった展示がなく「つまらないなぁ」と感じたのですが、今年は違いました。今年は特に3D撮影ができるレンズが豊富に置いてありました。すでにミラーレス用のレンズとして「RF5.2mm F2.8 L DUAL FISHEYE」が出ていますが、そのバリエーションモデルが置いてあったのです。
そういった「これから市場投入されるだろう製品」に加え、2Dで撮影した画像を3D化する技術も展示されていました。これはキヤノン独自の技術「デュアルピクセルCMOS AF」を活用したもの。
デュアルピクセルCMOS AFではイメージセンサーが左右に分割されているので、これを活用して視差情報を取得し、PCで変換して立体画像にするのです。デモでは正面から撮影された人の顔が、耳あたりまで立体的に再現されていました。
また感心したのは、自由視点の展示です。キヤノンはスポーツ会場に100台程度のカメラを設置して、画像処理を加えることで3D空間データを作る「ボリュメトリックビデオ」技術を持っていますが、その画像処理は3秒で済んでしまうそう。スポーツのリプレイをさまざまな角度から検証でき、テレビ中継などで目にしている人もいるはずです。
ただ、その切り取った視点・アングルは、テレビのディレクターなどがコントロールしていて、私たちはその結果をテレビ画面で見ているわけです。
今回CESで展示されていたのは、そんなボリュメトリックビデオの視点をユーザーが自由にコントロールできるというもの。「テーブルトップMR」と呼ぶもので、装着したヘッドセットを通して、さまざまな角度から試合会場をチェックできる。今回はバスケットの試合を観戦できるようになっていて、上から覗き込めば俯瞰視点、横から見れば選手と同じ目線、コートの中まで入り込めば、上にバスケットゴールが見えるような視点でも楽しめました。
これはかなり衝撃的。自由視点というのも衝撃ですが、ユーザーがアングルを自由に選べるというのは、現実にはありえない体験ですよね。
――会場で観戦するよりも貴重な体験ですよね。
麻倉:この体験はXRグラスがあれば実現できます。CESの展示では大きいヘッドセットを使っていましたが、同じキヤノンブースには手のひらサイズの立体視用ディスプレイも展示されていたので、これが製品化されれば、とても気軽に楽しめるようになると思います。
映像の見せ方、我々の映像に対する対峙の仕方は、今まで一方通行で、双方向になっても「クイズに参加する」とか、そういった程度でした。しかし、映像そのものに対して、ユーザーが自分の視点を持てるというのは、なかなかすごいなと思いました。
おなじく映像関連の話題では、CESで発表されたものではありませんが、ラスベガスにある球体型アリーナ「Sphere」が没入映像として衝撃的でした。なにより、どんな遠くからでも目立っていました。24時間、外側のLEDディスプレイを使って広告などが流れているのです。昼間でも十分目立つ建物ですが、夜の目立ち方は、とにかくすごい。
内部では16K×16Kの全周映像が楽しめます。とても解像度が高いですし、なにより巨大。3D映像ではありませんが、立体感も強く感じましたね。没入映像のひとつの究極形だと思います。
これまで映像はフラットなもので、今まではそれを表示する画面を大きくするという流れでしたが、そこに空間映像というものが出てきました。撮影するときも空間的に撮影し、観るときも空間的に視聴できるようになってきましたよね。
今はVRヘッドセットなどを使って、そういった映像を楽しんでいるわけですが、今後は例えば部屋の壁すべてにパネルが貼ってあって、そこで映像を体験できるようなものも出てくるかもしれません。
テレビ放送を再生するテレビ受像機というものが、ブラウン管からディスプレイになり、放送以外のいろいろなコンテンツが楽しめるようになりました。そして、そのコンテンツが変わること以上に、見方や体験の仕方、再生の方法が変わるのではないか? という予感があります。とくに空間性みたいなものは、今後強く打ち出されると思います。
――Sphereについては、CESを取材したほかのライターからも絶賛の声をよく聞きました
麻倉:最後にChatGPTについても触れておきましょう。今年のCES、AIはどこにいってもありました(笑)。特にサービスでAIを使うのは当たり前。ロレアルパリが化粧品のQ&AにChatGPTを活用するなど、サービスの中で生成AIを活用するというのは主流ですが、ハードウェアに生成AIを入れてきたのがフォルクスワーゲンです。つまり自動車に生成AIを入れてきた。
Cerenceという音声技術会社のデジタル音声アシスタントにChatGPTを加えた機能拡張版を、フォルクスワーゲンの音声認識システム「IDA」に統合するのです。基本的にはChatGPTではなく、システムでできるタスクはChatGPTを使わずIDAが処理しますが、対応できないときだけChatGPT側で処理されます。またIDAに答えてもらうか、それともChatGPTに答えてもらうかは、ユーザー側で指定することもできます。特に指定しなければIDA側で処理されます。
試しにIDAとChatGPTに「世界で最高の自動車メーカーは?」と尋ねてみました。当然IDAは「それはフォルクスワーゲンです」と答えます。それに対してChatGPTは「それは人によって違います」と答えてきて、なんとも大人な回答だなぁと感心しましたよ(笑)。
もうひとつ面白い使い方だなと思ったのは、車で移動中に子どもが退屈そうにしていたら、ChatGPTにお話を作ってもらうことができること。「子供たちのためにユニコーンの話を作ってくれますか?」と聞いたら、「昔々、魔法の国には色とりどりのユニコーンのグループがいました。彼らは幸せに暮らしていました……」という物語をその場で生成してくれました。
今後、自動車にデジタルアシスタント、生成AIは必須になるのだろうと思いますが、まずはすごく初歩的なところで活用されているなという印象です。
最後に、AIについて興味深いことを聞いたのでもうひとつ。LGでAIに関する説明を受けているとき、説明員に「これからAIはどうなっていくと思いますか?」と聞くと、「来年のCESから、AIはなくなるでしょう」という答えが返ってきたのです。
もちろん、これはAIが廃れるというわけではなく、CESでわざわざ紹介する必要がなくなるくらい、この1年でAIが当たり前の存在になるはずだというわけです。これがもっとも印象的な言葉でしたね。