西田宗千佳のRandomTracking
第622回
発売に向け本格始動。Android XRは「複数の形を持つXRプラットフォーム」だった
2025年5月22日 14:22
Googleが、XRデバイス向けプラットフォームである「Android XR」を本格的にお披露目した。
「Google I/O 2025」取材の中で、短時間ではあるが実際に製品を体験することができた。まずはその体験の内容と、「Android XRとはなにか」という話をまとめてみたい。
ヘッドセッドだけでなくスマートグラスまで
Android XRは、その名の通り、Androidをコアとした、Googleが展開するXRデバイス向けプラットフォームだ。
ライバルとしては、Metaが展開する「Horizon OS(Meta Questシリーズとその互換機)」、アップルが展開する「Apple Vision Pro」があり、その他にもARやVRで独自プラットフォームを展開するところがある。
現状、Horizon OSを含め多くのものがAndroidのオープンソース版である「Android Open Source Project(AOSP)」をベースに作られていて、アップルはiOS/iPadOSから派生した「visionOS」となっている。
AndroidベースならHorizon(Meta)と似ている……と考えそうだが、実際にはかなり異なる。OSの上物となるUIの部分、空間を人間にどう感じさせるかという部分、アプリケーションストアなどの部分、さらにAIの扱いなど、「基礎以外多くが異なる」というのが実情だ。
その上でAndroid XRはどう差別化しているのか?
GoogleでXR関連のDirector of Product Managementを担当するJuston Payne氏は、「用途は複数でもプラットフォームは1つ。デベロッパーも、複数の用途の機器向けに1つアプリを作ればいい」と、特徴を説明する。
昨年デベロッパー向けにAndroid XRが発表されたタイミングでは、Vision ProやMeta Questのライバルと言える、ヘッドセット型のMixed Reality対応デバイス「Project Moohan」が公開されていた。
今回Google I/Oでは、通知やナビ、AI活用などを軸にしている、スマートグラス型が公開された。一方で、この2つが「両端」のような存在で、その間の存在もあり得る。
詳しくは別記事でレポートを予定しているが、XREALが発表したAndroid XRデバイス「Project Aura」は、ヘッドセット型とスマートグラスの間のような機器で、スマートフォンなどとはケーブルで接続する。
スマートグラスタイプにしても、「カメラとマイクは必須だが、ディスプレイはゼロ(非搭載)から1つ、2つまで選べる」(Payne氏)とする。
このプラットフォームに対し、Googleはかなり力を入れている。開発は難航し、ここまで来るには時間がかかったと聞いている。
2013年のGoogle I/Oでは「Google Glass」が発表されて注目を集めたが、結局うまくいかなかった。Android XRはGoogle Glassと直接つながったプロジェクトではないそうだが、 「XRへの挑戦」という意味では延長線上にある。
Vision Proのライバル? Project Moohanを試す
では、それぞれのデバイスはどんなものなのだろうか? 今回は、Project Moohanと試作型スマートグラスの双方を試すことができた。
まずはProject Moohanから。
形状を見ればお分かりのように、狙いはVision Proにかなり近い。
本体にはQualcommのSoC「Snapdragon XR2 Plus Gen 2」を内蔵、ディスプレイは高解像度のマイクロOLEDを使っている。正確な解像度・パネルメーカーは明かされていないが、「Vision Proよりも若干劣る」くらいの印象である。
ケーブルでバッテリーが接続されており、ここもVision Proに近い。サイズは若干小さい感じで、外装はアルミではなくプラスチックだった。
Vision Proと異なるのは、布製のバンドではなくプラスチック製のバンドが後ろまでつながっている構造であること。デザイン的にも、頭の後ろで締める構造的にも、Meta Quest Proに近い。フェースパッドは目の下から頬の部分にすき間があり、顔への圧迫がほとんどない。そのため、標準出荷状態のVision Proよりも付けやすく、負担が少ない印象だ。
カバーに覆われた奥には複数のカメラが内蔵されていて、それで位置把握(6DoF)や手の認識を行なう。
XR機器では、両眼の瞳孔の間隔(IPD)が重要になる。IPDを正確に合わせた方が体験は良くなるためだ。安価な製品では手動でレンズを動かして合わせるのが一般的だが、Project Moohanでは、ホームボタンを長押しすると自動的に調整される。このUIも体験も、ほぼVision Proと同じものだった。視力補正は内部にインサートレンズを入れて対応する構造で、こちらも他のXR機器と同様だ。
ビデオシースルー方式のMixed Reality対応で、周囲の映像はそのまま見える。さらにUIやアプリのウインドウが重なり、現実空間とミックスで表示される。この辺はVision ProやMeta Questと同様だ。解像感は、Meta Questよりはかなり高く、Vision Proにより近い。現時点では画像が少し暗く感じられたが、体験環境の影響もあるだろうし、現状で判断を下してしまうのは適切ではないかもしれない。
Payne氏によれば「巨大な仮想ディスプレイを空間内に表示する機能」もあるという。このクラスの製品では、もはや基本機能に近い要素ではある。
今回はGoogleのアプリを中心に体験することができた。
まずYouTubeで映像を見たが、画質はかなりいい。Project Moohanのようなヘッドセット型は、映像視聴を含めたエンターテインメント要素も強く意識しているそうだが、確かにかなり向いている。逆に言えば、ディスプレイ含めかなりリッチな作りで、Meta Quest 3の価格では作れそうにない。かなりVision Proに近い価格帯になりそうな印象を受けた。
YouTubeのインターフェースはXRに最適化されたもの。以下はAndroid XR公式ページで公開されているイメージ映像の抜粋だが、実際こんな感じのUIが、より立体的に見えた。
ユニークなのは、2D動画の「自動3D化」機能を備えていることだ。どんなYouTube動画でも、AIで奥行きを推定、立体映像にしてしまう。数本の映像を見ただけだが、かなり品質は良い。アップルも静止画の3D化は搭載しているが、動画の自動3D化は搭載しておらず、1つの差別化点になるだろう。
Googleマップは、空中に地図のウインドウを配置するだけでなく、3Dの地形を床に敷き、その上に立って周囲を眺められるようにもなっていた。他のXRデバイスではサードパーティーアプリに似た機能を持つものがあるが、Android XRでは純正のGoogleマップがその役割を果たす。
全体的に他のXRプラットフォームに比べ、相当に「Googleのアプリ」が最適化されている。Android XRのメリットは、間違いなく「GoogleアプリのXR最適化」だと断言できる。
Geminiと共にある「スマートグラス型」
もう一つ、Android XRには特徴がある。それは「常にGeminiが動いている」(Payne氏)という点だ。
それを説明するにはProject Moohanではなく、スマートグラス型の方を例にする方がわかりやすいはずだ。
スマートグラス型は、ほとんどメガネと言っていい形状だ。重量は60g以下程度だそうで、つけていてもメガネとの差がわからない。スタンドアローン型ではなくスマホと連携して使うもので、ワイヤレス接続になる。
このデバイスはGoogle社内で開発されたプロトタイプで、今後開発用のリファレンスデザインとして各社に公開される。年内発売(日本国内向けは未定)となっているProject Moohanに対し、スマートグラス型の発売はまだ先であり、開発途上といった雰囲気がある。
デバイスには複数のマイクと1つのカメラ、1つのディスプレイが内蔵されている。操作は基本的に声で行なうことになりそうだ。すなわち、AIであるGeminiを介して動くことが前提で、「メガネの中にアシスタントがいて、声や映像で反応する」と考えるとわかりやすいだろうか。
Geminiを介して声で操作できる、という点はProject Moohanも同じだが、スマートグラスの方がより「それらしい」感じがする。
以下の写真で、メガネのレンズに四角い光があるのがお分かりいただけるだろうか? これがディスプレイ部だ。スマートグラスをかけている筆者から見ると、視界の中央より下くらいに透明で四角いディスプレイ領域があって、白い文字やグラフィックが重なって見える。
このデバイスの場合、現実にCGが混じり合って「現実が拡張される」というよりも、スマートウォッチをシンプルにしたような表示が視界に重なって見える……という感じだと思えばいい。
ここで表示が「視界の下半分くらい」であるのが重要だ。自然に前を見たとき、時計や通知・アプリ表示などは「視界の下の方に出ている」感じで、視野を邪魔しない。内容をチェックするときには少しだけ視線を下に向けるように見る。
今回体験できたのは2つのアプリケーション。1つはカメラとAIを連携させるもので、もう一つは「スマートグラス・ナビ」とでもいうべきものだ。
カメラによるAI連動はシンプルなものだ。絵の前に立って「今見ている絵は誰の作品?」「この絵で使われている技法は?」などと問いかけると、Geminiが音声とテキスト表示で答えてくれる。
もうひとつの「ナビゲーション」は、より現実的な用途を想定したものだ。行くべき方向を指し示す、いわゆるターン・バイ・ターンでのナビゲーションになっている。今回は部屋の中での体験だったが、本来は屋外を歩いているとき、目的地の方向などを指し示す形で使われる。以下はAndroid XR公式ページで公開されているイメージ。ここまで鮮明ではないが、十分明るくはっきりした視認性が実現されている。
さらに、視線を下に向けると、Googleマップの地図表示が見える。スマホの画面を見ながら歩く必要がなくなり、より自然な形と言える。
前出のように、Project Moohanとスマートグラスは大きく異なる用途だ。実際、見える映像も体験も異なる。屋内と屋外で別の体験を提示しつつ、プラットフォームとしては一本化している……というのが良くわかった。
この先は、アプリやコンテンツを増やし、多くの人が日常的に使いたいと思う部分をどこまで伸ばせるかが重要だ。その点は、今年以降継続してチェックする必要がありそうだ。