西田宗千佳のRandomTracking
新iPad Pro実機レビュー、LiDARでARが激変! 実は「コスパアップ」が魅力
2020年3月24日 21:30
3月18日夜に発表された、新しい「iPad Pro」のレビューをお届けする。
iPad Proの新機種はおよそ一年半ぶり。小型モデルの「iPad mini」や普及モデルの「iPad」などは出ているので、わりと頻繁にiPadの新製品が出ている気にもなるが、実はそうではない。
今回の新モデルは、カメラ部が大きく変わったのが特徴だ。「ついにスマホに並び、タブレットもカメラ勝負か」と思われそうだが、そうではない。ちょっと独自性の高い方向への進化が、新iPad Proを新しいデバイスへと変えている。
それが「LiDARの搭載」だ。
LiDARの搭載によってなにがどう変わるのか、そして、今のiPad Proがどのような価値を持っているかを考えてみよう。
「超広角」がiPadにも。iPhoneよりは画角が狭め
冒頭で述べたように、新iPad Proの変化は「カメラ部」に集中している。デザインはほとんど変わっていないし、ディスプレイ品質も同じだ。
ならばやはり、AVファンとしては「カメラ」が気になるところだろう。
今回のiPad Proのカメラは、仕様的には以下の通りだ。
- 超広角側 35mm換算15mm 10メガピクセル f値2.4
- 広角側 35mm換算29mm 12メガピクセル f値1.8
結論から言えば、広角側はいままでiPad Proに搭載されていたカメラと変わらず、超広角側が追加された感じ、と考えていい。
HEIFの画像サンプル |
---|
HEIFSource.zip(27.49MB) |
比較していただければわかるが、画質的には十分だ。「超広角」の画角がiPhone 11シリーズ(13mm)に比べて狭いが、この辺は許容範囲、というところかもしれない。なぜこの画角を選んだのか、という疑問はあるのだが、もしかすると、後述する「AR機能」のためかもしれない。
LiDARが乗ったということで、「カメラのフォーカスにLiDARを使っているのでは」という期待もあったのだが、今のところ、標準のカメラアプリではLiDAR連携はしていないようだ。
だが、今後デベロッパーに開発情報が公開されることで、「LiDARをつかって正確にピントとボケを再現するカメラ」を作ることもできるのではないか、と期待できる。この辺の可能性があるのは面白い。
LiDARで「AR」の機能が激変、高速に立体空間を把握
もうひとつの大きな変化は「LiDAR」搭載だ。
LiDARは「Light Detection And Ranging」の略で、光を使って「距離を測る」ためのセンサーを指す。自動運転車などに使われる先端技術、という印象を持つ人がいそうだが、実は古典的な技術。精度向上もあり、自動運転などで注目が集まったことからLiDARは特に「新しいもの」というイメージを持ちがちだが、そうでもない。
そもそも、LiDARとはいっていないものの、同じように「距離を測って立体構造を把握する」ものはある。一般に「ToF(Time of Flight)センサー」と呼ばれるものだ。というか、LiDARもToFを使ったセンサーの一つ、ということなのだけれど。ToFセンサーを使ったスマホはすでに複数登場しており、もうすぐ発売になるシャープの5Gスマホ「AQUOS R5G」にもToFが搭載されている。
だが、多くのスマホに搭載されているToFセンサーと、iPad ProのLiDARでは、今の時点でできることのインパクトにけっこうな違いがある。
多くのToFセンサーは、スマホカメラで距離をはかって「ボケ」などを実現するために使われている。
だが、すでに述べたように、iPad Proの標準カメラアプリではLiDARを使っていない。なにに使うかかといえばARだ。
とりあえず以下の動画をご覧いただきたい。iPhone 11 Pro Maxと2018年版iPad Pro、そして新iPad ProでのAR機能を比較してみたものだ。使ったのは、アップルのホームページでも使われている「AR Quick Look」。ウェブ上に置かれた3Dオブジェクトを現実の空間に召喚するという、シンプルなものだ。
これまでのアップル製品と新iPad Proでは、ARのリアルさ・精度がかなり異なることがわかるだろう。
新iPad Proがなにをやっているのか? 簡単にいえば、「瞬時に目の前の空間の立体構造を把握している」のである。
いままでのARKitでは、机や床などの「水平面」と壁などの「垂直面」を認識するのが基本だった。「階段」や「家具が置かれた部屋の状況」といった、比較的複雑な立体構造だと、正確に把握することはできなかった。しかも、カメラの画像認識を使っている関係から、「本体を動かしてカメラで周囲を認識させる」という、ある種の儀式のような動きが必要とされた。
しかし、新iPad Proでは、階段などの複雑な立体構造の認識を瞬間的に行なっている。映像の中で、「物体が階段にめり込みそうになると、物体の側がすこし消える」挙動が確認できるだろう。これは、いままでのARKitではできなかった。
同じようなことができた機器がないわけではない。Googleが展開していた「Project Tango」対応のスマホ・タブレットや、マイクロソフトの「HoloLens」だ。前者はコスト高になり、シンプルなスマホで実現できる「ARCore」プロジェクトに吸収されていき、後者だけが残っている。HoloLensはいまだトップクラスのAR体験を提供できるデバイスだが、その特殊性から、コンシューマ向けの製品になるのは先の話である。
今回アップルは、LiDAR搭載のiPad Proでそれらに近づいたことになる。どのくらいの精度なのか、検証用アプリも揃っておらず、短期間の試用ではコメントできない部分が多い。しかし、「スマホ・タブレットできるAR」として、素晴らしい体験であることは間違いない。
ARKitのインテグレーションが重要、「将来のアップル製ARデバイス」への布石か
もうひとつ重要なのは、こうした要素を使う上で、開発者はあまり複雑なことをおぼえなくていい、という点だ。
実は、過去に作られたARアプリもいくつか試してみたが、そのままで新iPad Proの恩恵を受けられるものも見受けられた。アップルのARフレームワークである「ARKit」にちゃんとインテグレーションされているので、すぐに利便性を享受できるのだ。
もちろん、新しく用意されるAPIを含めた開発情報を使えば、より深く、便利にLiDARを活用することもできるだろう。そのために必要な「ARKit 3.5」は、日本時間の3月25日深夜に、新しいiOS/iPadOSである「13.4」と同時に公開される。そうした情報を使えば、筆者が先ほど挙げた「LiDARを使ったカメラアプリ」なども開発可能になるだろう。
今回アップルがARKitのためにここまで新iPad Proに改良を施したのは、将来に存在する「アップルのARデバイスのため」ではないか、と予想できる。
今回iPad Proが採用したLiDARは、センサーの素性の詳細はわからないものの、「直接型」と呼ばれる形式であることが分かっている。
直接型とは、レーザーを直接物体に飛ばし、それが反射して戻ってくるまでの時間を計測するタイプのもの。シンプルで反応が速く、遠くまで計測するのに向いていることから、自動車向けなどはこちらの採用が多い。
しかし直接型LiDARは、あまりに光がすぐに戻ってくる範囲、すなわち近くで精度を出すのが難しい。そこを改善しようとすると、大型化しやすい。
そのため今のスマホ向けでは、「間接型」と呼ばれる仕組みが主流だ。これが先ほど「ToFセンサー」と表記したものだ。間接型は、何度か光を計測し、その位相差から距離を算出するもので、デジカメ用イメージセンサーの技術を応用して作れる。近くを高解像度でスキャンできるのが特徴だが、暗い場所や遠くの認識を狙うと消費電力が上がる、という欠点がある。
アップルはスピードや省電力化のために直接型LiDARを採用したのだろう。だが解像度も上げたい。そこで、いままでARKitで使ってきた画像処理での空間把握を組み合わせたのではないか。一見複雑だが、ARKitでくるんでしまえば扱うのは簡単になる。そうした「センサーフュージョン」的な利用が、新iPad Proの秘密ではないだろうか。
そう考えると、その方法論が、将来の「アップル製ARデバイス」に採用されるのでは……という気にもなってくる。
すなわち、新iPad Proは、「アップルのARデバイスに向けた開発機材」でもあるのだ。
【訂正】初出時、間接型のLiDARについて「計測にかかる時間と、データ処理の負荷が欠点と言われている」としていましたが修正しました(3月25日/編集部)
カメラ以外の進化は「OS」が中心、ストレージを含めた「コスパアップ」が美点
さて、では、カメラ以外はどうだろう?
正直なところ、ハードウエアに大きな変化はない。PCやMacでいえば「CPUを変えたマイナーチェンジモデル」に近い。Wi-Fi 6対応になり、LTEでの通信速度も上がったし、メインメモリーが6GB標準になったらしい(試用機材が1TBモデルであるため、それ以外については確かめていない)ことはあるが、逆にいえばその程度だ。
Geekbench 5でのテストを行なったが、CPUについてはほとんど変化がなかった。GPUは若干性能アップしているが、大幅なものではない。ちなみに、どちらの値も、同時に発表されたMacBook Airよりも大幅に大きい。もはや「MacBookよりiPad Proの方が性能が高い」のは珍しいことではない。
むしろポイントは、「iPadOS 13.4が最初から入っている」ことかもしれない。
iPadOS 13.4は正式にマウス・タッチパッドへの対応が行なわれており、「PC的に使う」場合の操作性が大幅に改善された。
どんな風に快適になったかは、こちらも動画で見ていただくのが近道だ。
特に文字選択などのストレスが劇的に小さくなるので、「PC的にiPadを使う人」にはおすすめだ。今回は出荷前なので貸出が敵わなかったが、同時に発表された「Magic Keyboard」にタッチパッドがついたのも、このOSアップデートありきのことだろう。
ちなみに、これらの機能はマウスでも使えるが、「マルチタッチ対応タッチパッド」がもっとも向いている。なぜなら、指を三本同時にタッチするジェスチャーが使えるからだ。具体的には、「三本でタッチして上にスワイプ」してホームを表示すること、「三本でタッチして左右にスワイプ」することでアプリを切り換えることが便利だと感じた。
この辺は新型のiPad Proでなくても、iPadOS 13.4が動く機器ならどれでも享受できるメリットだ。そういう意味では、買い換えのモチベーションが下がる部分があるかもしれない。
だが、LiDARを使ったARの可能性を試したいと思う人は、ぜひ新しいiPad Proを選んでもらいたいと思う。また個人的には、プレゼンの取材中などにiPad Proで写真を撮ることも多いので、カメラの改善がありがたい。
やはりポイントは、「ストレージが増えて価格が下がった」お買い得さ、ということになるだろうか。最小サイズが128GBになり、1TBのモデルは最大で2万5,000円近く安くなっている。その点を考えると、カメラやARに興味がなくとも、「実質的な値下げ」と捉えて買う、という選択肢はアリなのではないだろうか。