西川善司の大画面☆マニア
第225回
パナソニック有機EL、高画質の秘密はプラズマ技術? 220度で6KのHMD
2017年1月6日 19:31
CES 2017、今年のパナソニックブースは、従来の「今年モデルの新製品のお披露目」という趣向から一転。今年はIoT時代を睨んだ「次世代的なスマートな生活」をテーマにした展示となっていた。だが、映像技術に関する展示も充実していたので、それらをピックアップしてレポートする。
4K有機EL TVはマスターモニター品質を目指す
パナソニックが発表した有機ELテレビ「TX-65EZ1000」。昨年、同社は日本で有機ELテレビを発売しなかったが、実は欧州では「65CZ950」が2015年10月より販売されていた。今回発表されたTX-65EZ1000は、日本での発売が濃厚なモデルになる。
画面サイズが65型の1サイズの展開となる点は同じだが、先代CZ950が湾曲型有機ELパネルだったのに対し、新製品のEZ1000は平面型有機ELパネルを採用している。パネルサプライヤーは明言を避けたが、LG Displayに間違いないだろう。
ということは、赤緑青+白(RGBW)の4サブピクセル構造という事になる。有機ELパネルは、自発光画素デバイスなので、黒をスイッチオフで表現できることから黒の締まりがよく、コントラスト性能に優れることはよく知られている。
ただ、RGBWサブピクセル構造の有機ELパネルはエネルギー効率が悪く、輝度性能が上がらないという弱点があった。実際、CZ950は450nit程度で、これは非HDR対応の液晶テレビ程度の輝度である。RGBW有機ELパネルでは、せっかく全開で発光している白色有機EL画素の白色光エネルギーをRGBカラーフィルターを用いて、3分の1に刮ぎ取っているためだ。
例えば赤サブピクセルは、白色光に含まれる赤緑青のうち緑青を刮ぎ落として赤を取り出しているので単純計算で1/3の光量しかユーザーに届けていない。そのため、輝度を稼ぐ目的で白色のサブピクセルを設けてRGBWの4サブピクセル構造にしているのだ。
ところが、新製品のEZ1000で使われているRGBW有機パネルでは発光効率が改善され、輝度が約2倍の800nitまで高められたというから凄い。
直下型バックライトを採用したHDR液晶テレビの1,000nit~1,400nitと比較するとまだまだだが、先代からの伸びしろは大したものである。
それと、RGBW有機ELパネルは色彩再現が難しい。RGBによる3要素でフルカラーを表現するのはRGBW有機ELパネルでも同じなのだが、明るい有彩色を出そうとした場合は白サブピクセルの発光を使う必要があるし、かといって白サブピクセルの影響を出し過ぎると輝度は高まるが色味は薄れる。暗い有彩色の場合も同様な理由で難しい。
しかし、EZ1000では、スペック上ではCZ950がDCI-P3色空間カバー率約90%だったのに対し、DCI-P3カバー率100%へと改善し、劇的な色再現改善に成功したとしている。
これは、有機ELパネルの改善以上に、映像エンジンの進化の貢献度が大きいとパナソニックは説明している。
どういうことか。映像パネル上の各サブピクセル(LG式有機ELならばRGBW)の出力バランスは各輝度ごとに非線形な特性を持つ。なので、テレビの映像エンジンが、この出力補正を行なうのだが、これは特定の単一関数で変換できないため、解析学的に解決するのが難しい。
そこで用いるのが写像的な変換アプローチである。イメージ的には「映像データ上でRGB(ないしはYUV)がこういう組み合わせで与えられた色は、映像パネルで出力する際にはRGB(ないしはYUV)をこういう組み合わせで出力します」という情報をまとめたデータテーブルを用いて変換するのだ。
こうした仕組みをルックアップテーブル(LUT)変換というが、この作り込みがなかなか難しい。
映像がソースレベルで空間方向に色誤差を含んでいてそれが、視覚上混色してある色に見えている場合などは、LUT変換の結果、もともとのあった誤差を拡大してしまうと変な偽色を出してしまう。
よくあるのが肌色などで、肌色表現を構成する画素が「紫強めの色」と「緑強めの色」に因数分解的に隣接して存在し、遠目には白に見えているが、LUT変換でこの誤差が拡大、肌色として表現したい色が緑よりや紫よりシフトしてしまったりする。RGBW有機ELパネルでは実際にこういうことが、輝度の低い肌色では起こりがちだった。
EZ1000では、このLUT変換を3次元に拡大し、なおかつ、演算精度を最大14bitに拡大し、徹底した作り込みによって暗部から明部にかけて完璧な色再現を達成したとしている。
「LUT変換を3次元化」というのは、二次元平面上に展開した色変換テーブルに「暗部から明部にかけて」のもう一軸を増やしたと言うこと。つまり、暗部から明部にかけて、全輝度域において、映像上の画素色を的確に映像パネル上で発色できるようにしたと言うことだ。その精度たるや⊿E 2000で全輝度域で「⊿E=0」という。
これはよくディスプレイの色再現性スペックで表記される値で、提示された色をディスプレイ上で再現して人に見せたときに、元の色とどれくらい違って見えるかを表した値だ。詳細な計算式については「CIE 2000」などで検索してほしいが、⊿Eが1~2.5だと色彩感覚のいい人だと違いが分かるレベルとされる。一般に高画質なディスプレイ機器として訴求されている製品でも「⊿E≦2」くらいとされるので全輝度域で「⊿E=0」は相当なものだといえる。
映像エンジン「HCX2」による高画質処理の秘密
この「⊿E=0」を実現するにあたって肝となるのが、映像エンジン「HCX2」だ。
具体的にどのような工夫で「⊿E=0」が実現されているかが気になるわけだが、この点についても分かりやすい事例を挙げて解説がなされた。
まず1つ目は暗部表現だ。
有機ELは「自発光画素だから黒は画素表示オフで表現できるから黒が綺麗」と言われる。それはその通りなのだが、実は暗部階調表現は苦手なのだ。どういうことかというと、有機EL画素は「暗く光らせるのが苦手」なのである。
どういうことか、分かりやすく言えば、電圧を掛けて画素を駆動しても、ある敷居値を超えた電圧以上でないと画素は光らないので、普通に線形に制御するとあるところから一気に階調が立ち上がるような表現になってしまうのである。
これを解決するには時間積分的な階調表現を用いることだ。本来よりも明るく光ってしまうその光をすぐ消して、明滅頻度で帳尻を合わせたりするのだ。
「この制御」、実はプラズマテレビの画素駆動とよく似ている。
プラズマといえば、なんといっても最後までプラズマを作り続けたパナソニックの得意とするところである。パナソニックには、パイオニアでプラズマ開発に携わったエンジニアも合流しており、このあたりにはそうした英知が結集しているのである。
こう言うと語弊を生みそうだが、EZ1000(HCX2)の暗部階調表現は、それこそ有機ELでありがちなザラザラ感はなく、液晶のようなアナログチックな滑らかな階調表現ができていた。
二つ目は最明部の階調表現だ。
入力輝度が高くなればなるほど、RGBW有機パネル側の原色出力バランスはズレていってしまうのだが、これをEZ1000(HCX2)では最適化している。
ポストプロダクション用の出し入れも自在、3D-LUT機能
また、ユニークなのは、この「三次元化されたLUT変換」(3D-LUT)を、標準組み込みのものに加え、もう一つ持つことができ、これをUSBメモリやSDカードで入れ替え可能な仕組みを備えているところ。
この後段の3D-LUT(前出の映像エンジンパイプラインで赤い■のところ)について、パナソニックは「ポストプロダクション用」と説明している。
当面は映像制作現場などに向けて提供される機能のようで、独自制作した3D-LUTをEZ1000に組み込むことで、任意の色彩設計の映像を表示させて実験/評価を可能にする。
個人的にはこの機能、一般ユーザーにも開放しても面白いのではないか、と思う。例えば、パナソニックのUHD BDプレーヤーとEZ1000を接続したときに限り、再生したUHD BD映画タイトルに推奨される3D-LUTをサーバーからダウンロードして、これをEZ1000に転送し、制作者推奨画質で見る事が出来る……というような仕組みならば、映画マニアには相当ウケるような気がするのだが、どうだろうか。
パナソニックのVR HMDは画角2倍の220度で6K解像度!?
2016年はVR元年と言われ、様々な仮想現実(VR:Virtual Reality)対応のヘッドマウントディスプレイ(HMD)が発表されたが、密かにパナソニックも独自デザインで開発していたようで、今回のCESで初お披露目となった。
試作モデルでありながら、デザイン完成度は非常に高く、付け心地も悪くない。開発期間は約1年だそうで、もともとVRに限らず様々なHMDを開発していた研究チームが中心になって仕上げたものだという。
最大の特徴は、その画角だ。ソニーのPlayStation VR、Oculus Rift、HTC VIVEなどはいずれも表示画角が水平100度前後だが、この試作VR HMDはなんと水平220度で二倍以上もある。前方を向いた状態で、真横までが見えると画角は180度なので、この試作VR HMDは真横よりもさらに後方までが見えると言うことだ。
「画角180度を超えたVR HMD」といえば、スウェーデンのゲーム開発スタジオが開発中の「StarVR」があるが、あれは210度で、世界最大画角を謳っていた。パナソニックの試作VR HMDは、そのStarVRのスペックを超えてきたと言うことである。
ここまで広視野角のVR-HMDが実現出来たこの最大の秘密は、なんと映像パネルを4枚も活用しているところにある。約3.5型の映像パネルを左右の両眼に一枚ずつ割り当てたうえで、さらに左右側面に1枚ずつ割り当てているのだ。
映像パネルは現状は液晶パネルだそうで、解像度は1,600×1,440ドットとのこと。つまり、表示映像解像度は両眼で6,400×1,440ドットで、いうなれば「6K解像度」ということになる。
StarVRでは2,560×1,440ピクセルの液晶パネルを左右に斜めに配置し、5,120×1,440ピクセル解像度の画角210度表示を実現していた。
ではなぜ、パナソニックも6K解像度に拘ったとして、たとえば3,200×1,800ドット程度の液晶パネルを2枚使ったデザインとしなかったのだろうか。
ここには明確な理由がある。主役たる正面前方の映像表示を光学的にも画素密度的にも高品位に保ちたかったためだ。
実は、StarVRは液晶パネルが左右の目に対して斜めに配置されていることから、液晶パネルを斜めに見ることになっていた。
液晶パネルを斜めに見ると表示品質はやや落ちることになるのはご存じの通り。そして、視線が正面に向いているときには映像パネルへの視線入射角度が斜めになるので、シンプルな拡大光学系を組み合わせて構成するVR HMDではフォーカス均一性が担保できないのだ。
そこでパナソニックの試作VR HMDでは、正面視界の画質に拘り、正面視線に対して直交するように液晶パネルを配置したというわけである。ただ、このデザインでは、液晶パネルの接合部(継ぎ目)が視界の最外殻にできてしまう。
これについては光学設計の方で隠蔽している。このシステムの場合、片目あたり画角110度(220度の半分)の視界を見る事になるわけだが、その際、当然、接眼レンズである拡大光学系を通ることになる。この光路設計において、網膜上に液晶パネルの継ぎ目が映らないように工夫しているのだ。
実際に、恐竜が迫り来るデモ映像を体験したが、正面視界の解像感はなかなかのもの。表示画素の粒状感は少し気になったが、試作初号機としては十分な完成度だ。
注目の最外周視界の見え方も「補助的な視覚情報」と割り切れば、結構使える。例えば、「側面方向から何かが迫ってくる」みたいな気配を感じるには十分な品質だった。
正面液晶パネルと側面液晶パネルの接合部は、視覚はされずに、うまく隠蔽できていたが、「正面視界用の拡大系と側面視界用の拡大系が別々に用意されているな」感はユーザーに気付かれてしまう。なんというか、複数のアクションカムをプラケットに組み入れて撮影した360度全天全周映像でよくある「スティッチ場所がバレてる」みたいな感じは多少はあった。
ちなみに開発チーム側もこの部分の課題については認識しているようで「もう少し光学的な設計を詰めていけば改善できる」とのことである。
開発チームによれば、サウンド機能についても拘ったそうで、それは「あえて骨伝導方式を採用した事」だという。
同時多人数参加でのVR利用を想定したためで、VR参加者同士はマイクを使わず肉声で話し、イヤフォン/ヘッドフォンを使わず自前の耳で肉声を聞くことが出来るのだ。VRコンテンツのサウンドは骨伝導で聞こえるので、自分の耳で聞く音声とナチュラルにミックスされるのである。
さて、このHMD。市販化される可能性はあるのだろうか。返答としては「確定事項は何もない」と前置きしつつも、「民生向けではなくプロ用途、業務用途での展開を考えている」とのことであった。
具体的には、航空機や自動車の工業デザインの評価をはじめとした産業向けVR用途だったり、VRアミューズメントパークなどでの活用が想定されるとのことであった。
プロジェクションマッピングによるデジタルサイネージに注力
ブース内をふわふわと浮かんでいる風船。実はただの飾りではなく、実は「BalloonCam(バルーンカム)」という立派な技術展示なのであった。
このBalloonCamは、風船型ドローンとして、パナソニックが業務用用途で活用しようと力を入れているBtoB商材のプロトタイプ。直径約3mほどの巨大な風船の底面にカメラが取り付けられたような“出で立ち”をしており、見た目は童話に出てくる「雲」のようで可愛らしい。
実際、プロジェクションマッピングで、ニコッと笑った顔のグラフィックが投射されていて、その巨体にに合わず見る者を癒やしてくれていた。
プロジェクションマッピングは、バルーン内からではなく、外部に設置されたプロジェクタから行なわれている。今回の展示ではプロジェクタは3台で3方向から照射の構成。
パッと見は単体の巨大バルーンに見えるが、実際には内部が幾つかのブロックに区分けされていて、その各内部タンクにはヘリウムガスが封入されている。ボディ4箇所には貫通した穴があいていて、そこにはプロペラを搭載。この4つの回転の組み合わせで上昇下降、前後左右に移動できる。もちろん、マルチコプター型のドローンとは違ってその移動速度はゆっくりである。
ブースでは、本体中央下部に自社製360度カメラを搭載し、撮影した映像をリアルタイムに(遅延時間はわずか1秒ほど)BalloonCamのボディにプロジェクションマッピングするデモも実演していた。
ドローンといえば、墜落やロストが気になる部分だが、BalloonCamの場合、ヘリウムガスによる浮力が、プロペラが停止した状態では緩やかに下降してしまう程度のバランスに調整されているという。
万が一、電源系等にトラブルがあって全機能が停止してしまっても、そのまま墜落することはなく、徐々に降りて来ると言うことだ。「空中に浮いたまま」になる事もない。なかなかよく考えられている。
この巨体を利用し、アドバルーンのように広告スペースに利用してはどうか……と提案しているのだとか。実際に、札幌ドームで行なわれた北海道日本ハムファイターズの野球の試合でテスト飛行が披露されている。
担当者によれば、最終試作段階とのことで「東京オリンピックの時までには実用化したい」とのことである。
プロジェクションマッピングのデモはもう一つ。蠢く旗へのプロジェクションマッピング行なう、名付けて「フラッグマッピング」だ。
これは、蠢く旗の形状にリアルタイムに画像変形を行なってプロジェクションマッピングを行う、リアルタイム技術になる。
あまりにも自然なので凄さが伝わりにくいが、意外にやっていることは高度だ。
旗は普通の布製だが、四隅に赤外光LEDが備え付けられており、これを赤外光フィルタ付きのカメラで撮影。四隅の赤外光LEDの位置を検出し、旗としての平面の歪みをモデリングできる。その歪みモデルを適用した画像をプロジェクタから旗に投射してできあがり……というわけである。
担当者によれば、こちらもBalloonCamと同様、スポーツイベントなどでの新しいデジタルサイネージの形として訴求していきたいとのことであった。