ニュース

HMDやスマートグラス多数登場の「デジタルコンテンツEXPO」。VR美少女と生命を感じる

 コンピュータグラフィクス(CG)やバーチャルリアリティ(VR)、拡張現実(AR)などのコンテンツ、身体を用いたインターフェイスといった最新技術を展示・紹介するイベント「デジタルコンテンツEXPO 2014」が10月23日に開幕した。会場は東京・お台場の日本科学未来館で、期間は10月26日(日)まで。

会場の日本科学未来館

 今回の展示では、特にメガネ型のヘッドマウントディスプレイ(HMD)などウェアラブル端末が充実。HMDとPS4を活用したSCEの「Project Morpheus」や、HMDとスマートフォンを使ったSamsungの「Gear VR」などが体験できる。HMD「Oculus Rift」の広がりなどにより、VR/AR関連のコンテンツなども多数紹介されている。

 また、新しいディスプレイ/インターフェイスの形として、空中に浮かぶ映像に手を触れて押した感覚も再現するタッチ操作の「空中触感タッチパネル」や、水を滝のように流して、それに映像を投写する「アクアフォールディスプレイ」なども展示。これら技術のうち、一部は既に実用化されているが、多くは製品化される前の開発段階のもので、今回のイベントは研究者やクリエイター、企業らが提案・交流する場となっている。

Project MorpheusなどでVR体験。3Dのお医者さんごっこも

 HMD関連で注目されているのは、SCEの「Project Morpheus」。HMDとヘッドフォンを使って360度リアルタイムでゲームの世界を3Dで体験できるもので、操作に従って周囲の映像もリアルタイムで変化し、ゲーム空間の中に入り込んだ感覚を味わえる。

Project Morpheus体験の様子

 今回のデモコンテンツは、東京ゲームショウ 2014(TGS)と同じ「The Deep」というシューティングゲームのような映像。深い海に潜り、襲いかかってくるサメを撃つという、5~10分ほどの内容だ。

 TGSでデモ予定として話題となったが、ブースのキャパシティなどの問題から出展が中止された「サマーレッスン」(美少女と一緒の部屋に入ったような感覚で楽しめるVRコンテンツ)については、今回も展示はしていない。今後の具体的なデモ予定については明らかにしていないが、「Project Morpheus」対応のコンテンツは既に複数のプロジェクトが進んでおり、見せ方などを検討していくという。また、TGSでも大きな反響があり、コンテンツ制作者からの問い合わせも来ているという。

Project MorpheusのHMD
海に潜って、サメと戦うという内容

 プロジェクタなどを使ったVR用ソリューションを手掛けているソリッドレイ研究所は、「オタクの本質とは何かを追求し、VR技術との融合による今までにない新たな世界・マーケット・文化の可能性へトライする」という展示を行なっている。

ソリッドレイ研究所のデモ

 ここで体験できるのは、「生命を感じるVR(お医者さんごっこ編)」というもの。フレームシーケンシャル方式の3D対応プロジェクタとアクティブシャッターの3Dメガネ、振動デバイスを搭載した聴診器、マイクロソフトのKinectなどを組み合わせた構成で、これらを1台のPCとソフトにより連携。3D映像の美少女に向かって聴診器を当てる動作をするとKinectのカメラでとらえ、聴診器の振動により実際の鼓動のような手応えが感じられる。聴診器を当てる場所によって女の子の表情も変化するほか、Kinectで体験者のヘッドトラッキングも行ない、映像の女の子が体験者に視線を合わせる。プロジェクタ2台で前面だけでなく床にも投写することで、相手をより近くに感じられるようにしている。

 聴診器を胸のあたりに当ててみると、鼓動の音とともに手に振動が感じられ、女の子が目をつむり、顔を赤らめる。お腹の辺りに聴診器を動かすと、ちょっと怒られる。映像と分かっていても、手に伝わる感触で、やっている方も少し恥ずかしくなってしまった。今回の企画は、オタク社員による「目の前にいるキャラクターに生命を感じたい」という思いを形にしたものだそうだ。

あくまでも「生命を感じる」ために聴診器を当てる
体験者の動きに合わせて映像も変化
デモに使っている聴診器と3Dメガネ
2台のプロジェクタを装着できるスタンドで、従来に比べて簡単に2面投写できるのも特徴
「頭に取り付けて、オタク度診断ができるデバイス」も開発。脳波に応じてアンテナが光るため、その人が何に興奮しているかを“周りの人だけ”知ることができる

 会場入り口近くで人気だった展示は、Samsungの「Gear VR」を使って、ドラえもんの「どこでもドア」のような体験ができるというデモ。

 「Gear VR」は、Oculusの技術を採用したヘッドマウントディスプレイで、Galaxy Note 4を内部に装着。光学レンズで、目の前96度にGalaxyの映像を広げて見える。

 今回のデモでは音声認識も活用。「ハワイ」や「公園」などと声に出すことで、周りの映像がすぐに変わるため、どこでもドアで瞬時に移動したような感覚が味わえる。目の前にドラえもんが現れるなど、10種類のパターンを用意している。健康上の配慮から13歳未満の子供は体験できないが、来場者が長蛇の列を作る人気のコーナーとなっていた。

Gear VRを体験できるコーナー
Gear VRの装着例
様々な場所へ瞬時に移動する感覚を味わえる

 QDレーザは、RGBのレーザー光をMEMSミラーに照射し、網膜で直接映像を感じられる「レーザアイウエア」を紹介。まずはカメラで撮影した前方の映像をリアルタイムで観るという使い方で'15年に製品化し、視力などに関わらず視認できるという特徴を活かし、視覚に問題を抱える人への補助端末として提案。'17年末にはスマートグラスとしても展開予定。

QDレーザの網膜走査スマートグラス「レーザアイウエア」

 一方、ディスプレイではないが、スマホと連携するメガネ型のウェアラブル端末「JINS MEME」も展示。まばたきや視線の動きで疲れや眠気などが分かるというもので、'15年春に発売予定。主にオフィスの労務管理や、ドライブの安全化、フィットネスの効率的な実践などへの活用を想定。スマホとBluetoothで接続し、アプリに「オフィス」、「ドライブ」、「フィットネス」モードを用意する。開発者向けにAPIも公開し、様々なアプリなどの登場も期待される。

JINSの「JINS MEME」
Vuzixは、HDMI搭載のHMD「Wrap 1200DX」(57,000円)や、Android搭載のスマートグラス「M100」(本体92,500円/SDK19,800円)や、などを展示している。
大日本印刷(DNP)は、エプソンのMOVERIOを使ったデジタルコンテンツの例として、あるコンサートのポスターを見ると、カメラが認識して動画再生やチケット情報案内などを行なうというソリューションを紹介している

空中をタッチする「映像+触感」のディスプレイなど

 「空中触感タッチパネル」(東京大学 大学院 新領域創成科学研究科 篠田・牧野研究室)は、空中に浮かぶ映像に手を触れて、触感を感じながらタッチ操作できる技術。プロジェクタで投写された映像にタッチ操作すると、実際にボタンを押したような感覚が指先で感じられるもので、例えば電卓の表示だと、数字キーを押した時と「C(クリア)」を押したときでは異なる感触になる。

空中触感タッチパネルに指でタッチしているところ

 指先に感触を与えているのは、超音波を集束させることによる細かな振動。超音波の波形を変えることで、前述の電卓表示のように、受ける感触も変えられる。物理的なパネルが不要なことで、料理中や手術中などの手でも操作できるタッチパネルを実現するという。

付箋で触れると勢いよく跳ね返る
鍵盤表示したところ
超音波の装置を組み合わせて、球体など3次元の物体に触った感覚を味わえる装置も展示している

 「ピクシーダスト」(東京大学 暦本研究室・落合陽一氏/名古屋工業大学 星研究室)は、粒状の物体を空間上の自由な位置に浮遊させて、その物体の集まりでディスプレイのように表示するもの。こちらも超音波を使っており、「フェーズドアレイ」という超音波スピーカーを対向配置して、その間の空間に定在波を起こし、音圧の“腹”から“節”へ向かう力が重力を上回ることで物体が宙に浮く。

 デモで使われている装置では1gまでの物体を浮かすことができ、今回はビーズクッションなどの中に入っている軽い「マイクロビーズ」を浮かせて、それを空中で縦や横に並べることで画像のように表示。そこにプロジェクタの光を投写してカラー表示を可能にしている。ディスプレイの背面を遮るものはなく透明という特徴を活かし、表示する内容の奥に商品などの立体物を置いて映像と重ねて表現するといったことも可能。今後は、物体を長く浮かせるように安定性を上げていくことなどが課題とのことだ。

ピクシーダスト
浮かび上がらせた物体に映像を投写してカラー表示
ディスプレイの後ろに手を置くと、映像と重ねて見ることができる

 「アクアフォールディスプレイ」(東京工業大学 大学院情報理工研究科 小池研究室)は、上から流れ落ちる水と高密度の霧によって人工的に作られた“滝”のディスプレイにプロジェクタで投写するというもの。従来の水を使ったディスプレイと異なるのは、背景を見えなくできるという点。前から見ると単なる平面だが、実際は前後左右の4面(上から見ると“ロ”の字型)で水が落下しているため、すりガラスのように背景が見えないことから、ディスプレイの後ろから映像ではなくリアルな物体を突然飛び出させることなどが可能。今回投写されたデモ映像は、「空気砲を撃って鳥インフルエンザウイルスを撃退する」というゲームで、ウイルスをやっつけると、画面の後ろからおもちゃのアヒルが出てくきてお礼を言う(Thank Youと表示)。

アクアフォールディスプレイのデモ
後ろからアヒルが登場

 富士通ソーシアルサイエンスラボラトリ(富士通SSL)は、神奈川工科大学 情報学部 情報メディア学科の白井暁彦准教授が共同研究を進めている「多重化・不可視映像技術」のデモも行なっている。1台のテレビを観ている時に、メガネを掛けた状態と裸眼の状態で異なる映像が観られるというもので、白井研究室が開発した映像多重化のソフトウェア技術・ExPixel(エクスピクセル)を活用。「チャンネル争いの終結」を提案している。今回のデモにはMMD(MikuMikuDance)を使った音楽ライブのような映像を使用し、メガネを掛ける(偏光フィルタを通す)と、別のキャラクターが歌っている映像が観られるという内容になっている。

多重化・不可視映像技術のデモ。右側が裸眼時、左が偏光フィルタを通して見える映像
右側は、裸眼で見えるキャラクター
メガネ装着時に見えるキャラクター

 「勝率100%じゃんけんロボット」(東京大学 石川・渡辺研究室)は、人間のじゃんけんの手を瞬時に認識することでロボットが必ず勝つというもの。実際は“後出し”だが、1,000fpsのハイスピードカメラと、0.1秒で180度の開閉動作をする高速ロボットハンドなどの組み合わせで、1ms後にはロボットが勝つ“手”を出すため、人間の目には後出しに気付くことは無い。

勝率100%じゃんけんロボット
人間の手にすぐ反応して、ロボットが勝つ手に変更

 電子黒板のメーカー・サカワが展示しているのは、「みらいのこくばんプロジェクト」。普通の黒板に見えるが、タッチパネルのように指で操作したり、2点をタッチして直線を引くといった操作が可能。PCのフォルダに入っている画像や動画の表示なども行なえる。Facebookでアイディアを募集しており、検証した上で製品化を目指している。

サカワの「みらいのこくばんプロジェクト」
電通サイエンスジャム/電通の、脳波センサーとスマホのカメラを連動させる「neurocam」
人と動物を合成した写真を撮れる「アニマルセルフィー」をアミューズメント施設などに提供しているメディアタージのデモ

(中林暁)