ニュース

マイクロソフト「HoloLens 2」。視野角2倍&解像感倍増。両手の指を認識して操作

米マイクロソフトは、スペイン・バルセロナで開催の「MWC19 Barcelona」において、2月24日(現地時間)に発表会を開催。Windows Mixed reality(MR)対応ウェアラブルデバイスHoloLensの第2世代「HoloLens2」と関連戦略を発表した。HoloLens 2は2019年内に発売され、アメリカでの価格は3,500ドルから。

Microsoft HoloLens 2

従来は「企業向けサポート版(5,000ドル)」と「開発者版(3,000ドル)に分かれていたが、HoloLens 2ではより機能と開発サポートが充実している「企業向けサポート版」のみに絞られ、実質1,500ドル値下げとなった。ただし、デバイス価格だけで比較すると500ドルの値上げ、とも言える。HoloLens 2は日本もアメリカと同時期に発売されるが、予約用のページは、日本時間2月25日午前3時段階では「準備中」で、日本での販売価格も追って発表になる。

現地時間2月25日~28日開催のMWC19 Barcelonaのマイクロソフトブースで発表会が開催された

HoloLens 2はあくまで企業向けが主軸で、一般消費者向けとは位置づけられていない。

だが、初代HoloLensがそうであったように、HoloLens 2も、「我々が使うコンピュータとエンターテインメント機器の未来」を占う上で、きわめて重要な製品であることに違いはない。

ここでは、発表会で公表された内容について速報する。実機のハンズオンなどは別途記事を予定している。

本発表会は、翌日25日より開催される、モバイル業界向け展示会「MWC19 Barcelona」に先駆けて行なわれたもの。発表も、会場内のマイクロソフトブースで開かれた。そのため規模は比較的小さめだったのだが、米マイクロソフトのトップであるサティア・ナデラCEO、コーポレート・バイスプレジデントのジュリア・ホワイト氏、そして、HoloLensとWindows Mixed Realityの産みの親である同社テクニカルフェローのアレックス・キップマン氏の揃う、かなり内容の濃い発表会となった。

なお初代HoloLensの使い勝手については、こちらの記事で2年前に紹介している。別途そちらもご参照いただけるとありがたい。

「ヒューマン・ファースト」の時代に向けて開発を進める

まず壇上に現れたのは、サティア・ナデラCEOだ。ナデラCEOは、現在のクラウドとAIがいかに世の中を変えつつあるかを力説した上で、こう語りかけた。

「我々は今後、デバイス・ファーストから、生活の中にあるすべてのデバイスが『ヒューマン・ファースト』になる」

マイクロソフトのサティア・ナデラCEO

すなわち、人が機械を操作するために慣れるのではなく、人の動きを機械が取り込むという形が望ましい、という主張だ。これは以前から繰り返されてきたものだが、今回の主題にとっては特に重要なことだ。なぜなら、HoloLens 2はその中核にある存在と言えるからだ。

まずマイクロソフトから発表されたのは「Azure Kinect」だ。Kinectといえば、同社が2010年に、Xbox 360向けに発売した体感型ゲームセンサーを思い出す人が多いだろう。Azure Kinectはその進化版だ。Kinectは体の動きをカメラや深度センサーを使って把握するデバイスであり、その後、ゲーム向けから産業・学習などのためのボディセンサーへと進化した。そして、今回発表されたのが、その最新版といえる。昨年5月に「Kinect for Azure」として発表はされていたものだが、それが正式に製品となった。価格は399ドルで、まずデベロッパーに向けて提供される。

Azure Kinect。人の姿勢や眼前の立体空間を把握するセンサー。Xbox 360で2010年に登場したKinectの進化版にあたる

Azure Kinectは、その名の通り、マイクロソフトのクラウドである「Azure」と連動する。だが、処理はすべてをクラウドで行なうわけではなく、Azureで学習した内容や処理をエッジ(デバイス内)で処理する。1メガピクセルの深度センサーに加え、12メガピクセルのRGBカメラを使い、人の動きはもちろん、周囲の立体的構造をデジタル化できる。

RGBカメラと深度センサーを内蔵し、空間の立体構造を把握することができる
Azure Kinectを3台組み合わせて、空間の立体構造を把握

このことは、IoTを使ったサービスを構築する上で、非常に大きな意味を持つ。マイクロソフトはAzure Kinectで空間のデータ(空間マップ)を制作し、Azure上で処理する技術を持っている。それを使って、様々な場所で、空間自体の構造や人の動きを考慮したアプリケーションが作成できるようになる。

そしてこのことは、さらに、次に控えている本日の発表の本命、「HoloLens 2」にも大きく関係している。HoloLens 2が持つ深度センサーとしては、Azure Kinectがそのまま使われているからだ。

HoloLens 2は初代モデル「3つの問題」を大幅に改善

HoloLens 2を発表したのは、もちろん、アレックス・キップマン氏だ。キップマン氏はHoloLensの産みの親であると同時に、Kinectの産みの親でもある。これまでの仕事の一つの集大成として、今回はHoloLens 2を発表したことになる。

HoloLensの産みの親であり、マイクロソフト・テクニカルフェローのアレックス・キップマン氏。手にしているのはHoloLens 2

「日本など複数の国でのフィードバックでは、主に3つの事を聞かれました。一つは『もっと広い視界で見たい』ということ、二つ目は『もっと快適に長い時間つけていたい』ということ、三つ目は『Mixed Realityを使ったモダンなワークスペースを作るための時間をもっと短く』ということです」

キップマン氏はそう語り、まずはハードウエアの改善について語った。

一つ目の「見やすさ」については、まず、視野が前モデルの2倍まで広がった。正確な角度は公開されていないが、HoloLensの視野はVRデバイスに比べるとかなり狭く、35度程度と言われている。使っているうちに慣れるものなのだが、それでも狭いことに変わりは無い。まずこれが縦横に大きく広がる。

初代HoloLensの弱点は「視野の狭さ」と言われていた
HoloLens 2では縦横に広がり、マイクロソフトは「2倍の広さになった」としている。

これは表示デバイスの進化によるところが大きい。HoloLens 2では「3:2 2K」のレーザー光源のデバイスが使われている。これは「それぞれの目で、720Pのテレビが2Kのテレビになるようなもの」(キップマン氏)と表現されている。だが、PCやテレビ的な意味での解像度は、HMDにはあまり意味をなさない。自分の目に対してどのくらいの解像感で見られるのかが重要だからだ。

HoloLensは、視野1度あたり23ドットで構成されていたが、HoloLens 2ではこれが「47ドット」になる。キップマン氏は「8ポイントのフォントがウェブサイト上で読める」と表現しているが、これはかなりの解像度アップといっていい。

HoloLens 2は表示デバイス変更で、解像感は「視野1度あたり47ドット」。精細になり、小さい文字も読みやすくする

次に「快適さ」。HoloLensは頭に取り付けるためにちょっと慣れが必要で、なかなか安定せず、長時間付けるのが快適でない、との評価があった。そこでマイクロソフトは、多くの人の顔と頭を3Dスキャンし、よりかぶりやすく、安定するようになった。頭頂部を抑えるバンドはなくなり、重心が頭の真ん中に移動したのでズレにくくなっている。このことで、マイクロソフトは「従来に比べ3倍快適になった」と主張している。

数千人もの姿を3Dスキャンし、「より疲れにくい形」を目指した結果、従来に比べ3倍快適になったという
HoloLens 2をかぶるキップマン氏。初代モデルにあった「頭頂部を止めるバンド」はなくなり、シンプルにかぶれるような形に

ちょっとしたことだが、本体を上に跳ね上げ、周りを見られるようになったのも大きい。現実の世界で作業をする時、これまではHoloLensを外す必要があったのだが、「跳ね上げ式」になったことで、いちいち取り外す必要がなくなり、より楽に使えるようになる。

ディスプレイ部を上に「跳ね上げ」ることが可能に

さらに、インタラクティビティも向上している。視線の方向をトラッキングするセンサーが内蔵されたことで、見ている方向・ものを検知して操作に活かすことが可能になり、手の動きを画像認識して操作に活かすこともできる。セキュリティ確保のために虹彩認証も採り入れられ、かけた瞬間に「自分」であることを認証してくれる。これは、企業内での用途には重要なことだろう。

視線の方向を把握することと、虹彩に夜個人認証が可能に

「両手の指の認識」で操作性が大幅に向上

こうしたスペックを説明されるだけで、HoloLensを使ったことがある人には順当かつ大幅な進化をしているのがおわかりいただけるはずだ。

だが、HoloLensはあくまで開発者向けのデバイスであり、コンシューマ向けではない。ほとんどの人は未体験だろうから、進化点だけを紹介されてもわかりにくい。そこで、発表会で行なわれたデモについてここから解説をしてみたい。

HoloLensの中にはCGが表示され、装着している人からは、現実の風景にCGが重なっているように見える。これは初代機もHoloLens 2も変わらない。そのままでは装着している人が見ている映像がわからないので、デモでは特殊なカメラを使い、その様子が映像として表示されている。実際のHoloLens 2の表示とはCGが合成されている「視界の広さ」が違うことに留意していただきたい。だが、違うのはその点だけだ。

HoloLens 2を操作中。操作している人にしか映像は見えないので、単に写真を撮るとこうなる
実際の映像を模したもの。これほど明確に見えるか、視野が広いのかという問題はあるが、操作しているイメージはつかめるはず

まず、「手の認識」がすごい。

初代HoloLensは、指先を認識することはできたものの、両手の指をリアルタイムに把握することはできなかった。HoloLens 2では両手の指の動きを正確に把握し、操作に活かせる。両手でピアノを引くこともできれば、物体を掴んで両手でサイズを変えることもできる。まさに、空間に浮かんでいる物体を自由に指で操作する感覚だ。

空中に浮いているスライダーを動かしたり、大きなボタンを押したりすることもできる。その時には音によるフィードバックもあるので、「どのくらい動かしたのか」「どう押したのか」という感覚もわかる。

HoloLens 2では両手の指をすべて認識可能。きちんと指の形の3Dモデルができ上がっていることに注目
空中にあるスライダーやボタンなどを操作。初代HoloLensでは「クリック」くらいしかできなかったが、HoloLens 2では指・腕の動きをジェスチャーとして認識できる
空中にピアノを出して、それを両手で弾くことも可能

こうした技術の組み合わせ例としてまず示されたのが、マイクロソフトの業務用アプリケーション「Dynamics 365」との連携だ。例えば工場で利用する場合、HoloLens 2の画面には「次にやるべき操作」が現れ、それを順にたどっていくことで、確実かつ短時間に作業に習熟できる。すでにアラスカ航空やゼネラルダイナミックなどの航空産業で使われていることが示された。

企業ツール「Dynamics 365」との連携
どこをどう操作し、作業を進めるべきか、といったサジェスチョンを、実際の風景に重ねて、正誤を確認しながら作業ができる

3Dユーザーインターフェイス開発を手がける企業Spatialは、HoloLens 2用のデモとして、Mixed Reality空間でのコラボレーションシステムを公開した。同じ3Dモデルやデザインイラストなどを見ながら作業ができる他、ネットやスマホ内から映像やウェブなどの資料を持ち寄り、仮想空間内で共同作業ができる。

Spatialが開発中のコラボレーションツール
複数人がMixed Reality空間に一緒に入り、製作物を見ながらディスカッションができる。スマホからの情報を、ウェブやデータの形で一覧することもできる

こうしたことは、これまでのHoloLensでもある程度できたが、視野が広がり、指などの認識能力が高まったことで、さらに実用性を増した印象だ。

CPUはインテルからQualcommに

発表会では特に言及されなかったが、HoloLens 2はCPUなどのアーキテクチャを大きく変更している。

初代HoloLensはインテルのAtomプロセッサーに独自の「HPU」と呼ばれる空間認識用プロセッサーを組み合わせて作られていた。当時はそのくらいしか選択肢がなかった、と言えるが、現在はそうではない。

HoloLens 2はインテルのx86ベースから、QualcommのSnapdragon 850を使ったARMベースのアーキテクチャに移行する。GPUも、Atom内蔵のものとSnapdragon 850内蔵の「Adreno 630」とでは相当にパワーアップしている。視野や解像度の向上はに、CPU・GPU性能向上も効いているのだろう。

HPUは「HPU 2.0」と呼ばれる、画像認識などのAIの能力を大幅に向上させたものに変更されており、その結果、両手の指の認識などが行なえるようになった、と推測できる。

バッテリー動作時間に言及はないものの、サイズや性能向上から考えて、現在と同等の2~3時間と思われる。だが、電源がmicroUSB(5V・2.5A)から「USB Type-C」に変わったため、急速充電などが可能になっていると期待できる。

Azureと連携、「空間」をiOSやAndroidとも共有へ

HoloLens 2のハードウエアについては以上だが、マイクロソフトは、さらに興味深い戦略を発表した。

それが「Azureとの連携」による可能性だ。Azureは同社のクラウドであり、連携するのが当然、という印象もあるかも知れないが、HoloLens 2ではより密な連携が行なわれている。

まずは「Spatial Anchors」。日本語に訳せば「空間アンカー」といったところだろうか。

Azureで「空間マップ」を共有する「Spatial Anchors」を発表

HoloLens 2やAzure Kinectを使うと、その場になにがあり、どんな立体構造なのかを把握することができる。HoloLensではこれを「Spatial Map(空間マップ)」と呼んでいたが、この処理がAzureと連携することで、大幅に変わる。

HoloLens 2やAzure Kinectから得た空間マップはAzure上で処理されることで「汎用的な空間マップ」になり、他のプラットフォームからも活用可能になる。例えばiOSのARKitやAndroidのARCoreからも使えるようになる。HoloLens 2をもっていない人も、スマホからHoloLens 2が見ている空間をシェアして作業することが可能になるのだ。

例えば、数人がHoloLens 2を使い、そこまで必要性がない人やHoloLens 2が使えない状態にいる人はスマホ・タブレットから参加し、同じ作業を確認しながら共同作業が行なえる。これは、多数の人々で作業を進める上では非常に重要なことだ。

キップマン氏の後ろに映っているのは、HoloLens 2で取得した「空間マップ」。目の前の空間の立体構造をデータ化、Azure経由で処理して、iPhoneやAndroidでも活用できる

また、Azure Remote Renderingを使うと、スマートフォンやHoloLens 2のように「ハイエンドPCほどの性能がない」デバイスでも、ハイクオリティのモデルデータを間引くことなく、そのまま利用できるようになる。

クラウドで高精細なデータをそのままレンダリングし、パワーのないスマホやHoloLens 2へと受け渡す「Azure Remote Rendering」を発表

例えば工業利用の場合、デザインの現場では圧倒的にディテールの細かい形で製作している。ハイエンドPCを使うから当然だ。だが、それをスマホでのショッピングやHoloLensなどでのコミュニケーションに使おうとすると、とても機器の性能だけでは表示できないデータになってしまう。そのため、データを小さく間引く作業や、時には作り直しが必要になっていた。それは、作業の二度手間で、コストも時間も無駄である。

Azure Remote Renderinでは、精密なデータをそのままAzure側でレンダリング処理し、スマホやHoloLens 2へとストリーミング形式で渡す。結果として、表示品質も損なわないし、データの作り直しなどの手間も減るわけだ。

左がスマホでも表示可能な低ポリゴン数の、右が本当に作成中だった高ポリゴン数の元データ。Remote Renderingにより、スマホ向けにデータを小さくしなくても、高ポリゴン数のまま扱える

この2つの要素は、VRやARを実用的に使う上で重要な技術だ。マイクロソフトはそうした技術基盤をクラウド上に作り、HoloLens 2だけでなく、様々な機器から透過的に使えるようにする。

同社にとってはクラウド活用が収益の柱になっている。HoloLens 2の登場に合わせ、本格的に「Mixed Reality向けのクラウド基盤」を整備し、いよいよ本格的にビジネス展開に乗り出そうとしているのだ。

HoloLens 2、「オープン戦略」の狙いはどこにあるのか

一方で、HoloLens 2のビジネス展開については、新たに変更も加えられた。初代モデルはマイクロソフトのアプリストアである「Microsoft Store」を使い、ブラウザとしては同社の「Edge」を使うことが基本になっていた。だがキップマン氏は「HoloLens 2はオープンになる」と断言する。

キップマン氏は「HoloLens 2はオープン」と語る。具体的には、「アプリストア」「ウェブブラウザー」「開発環境」それぞれで、マイクロソフト純正以外の選択肢が増える

具体的には、「アプリストアは自社にこだわらない」「ウェブブラウザーもEdge以外を許容する」「開発環境としても、Unityやマイクロソフトのもの以外もサポートする」ということだ。

ブラウザについては「Firefox」のHoloLens 2版が同時発表になり、開発環境として、Unityと並ぶ主要ゲームエンジンであるEpicの「Unreal Engine」の対応が明言された。

こうしたことがビジネス上どう働くのか、興味深いところがある。マイクロソフトとして、どのような判断の下に「オープン」を推すことになったのだろうか。もちろん、開発者から見ればプラスなのは間違いないだろう。