西田宗千佳のRandomTracking
第529回
新AirPods Proは“外観以外別物”。AV目線で考える「アップル新製品」
2022年9月9日 09:38
9月7日(現地時間)に行なわれたアップルの発表について、今回もまた「AV目線」での詳報解説をお届けする。すでにハンズオンについては記事化しているが、その後の取材などで得られた情報も合わせ、細かい点を補完しながらお伝えしていきたい。
その1:第2世代AirPods Proは「外観以外別物」だった
AV Watch的にまず気になる点として、あえて「第2世代AirPods Pro」の話を先にご説明しよう。
ハンズオン記事でも説明したように、第2世代AirPods Proは第1世代とは外観で区別するのが難しいくらいに似ている。
これはどうやら「あえてそうした」ようだ。
アップルの中には「1つの製品をアイコンとして広く普及させる」製品と、「複数の選択肢のあるものを色々な人々に届ける」製品があるようだ。
簡単に言えば、カラーバリエーションが多い製品が後者であり、カラーバリエーションがない、もしくは少ない製品が前者である。
アップルのイヤフォンは、iPodの時代からカラバリ展開をしておらず、「同じデザイン・白いカラー」をアイデンティティとして展開してきた。AirPods Proも同様で、ヒットしたあのデザインそのままで次の世代にすることが開発上、1つのテーマにはなっていたようだ。
これは発表会でも言及があったが、第2世代AirPods Proはオーディオドライバーもコントロール用SoCも新しいものに変わっている。それだけでなく、どうやらマイクも新規設計に変わっているようだ。同じなのは「デザインとバッテリー容量だけ」ということであるらしい。
まさに「わざわざ同じデザインに詰め込んだ」のである。
第2世代の特徴として、SoCが「H1」から「H2」に変わったことが挙げられる。H2はH1に比べ2倍の規模のSoCになっている。トランジスタを10億詰め込んだSoCなのだ。そこまで規模を大きくした理由は、オーディオの制御をより精密に行なうため……という部分もあるのだが、さまざまな機能で機械学習を使っているためでもある。
例えば、今回から音量調整が「スワイプ」で行なえるようになっているが、これにもH2の機械学習コアが使われている。イヤフォンなどでのタッチ操作の場合、誤動作によって不快な思いをすることも多かった。アップルはそれを防止するために機械学習を使っており、H2がその制御も担当しているのだという。
なお、スワイプでの音量調節時には、いかにも「操作したような」ごく小さな音が鳴る。
実機はハンズオンで短時間しか使えていないので、音の良し悪しやノイズキャンセルの精度については、ここでも評価は保留としておきたい。彼らの「2倍のノイズキャンセル性能」という表現は前モデルとの比較によるものだが、ちょっと基準がわかりにくい。しかし、ここまで別物に作り替えてきたのだから、音質・ANCの効きの両面で期待が持てそうだ。
その2:「静止画撮影機能」は作りなおされていた
新しいスマホが出る、ということになると、やはりカメラ性能に注目が集まるものだ。
今回、iPhone 14 Proシリーズはメインカメラのセンサーを4,800万画素に変えているが、iPhone 14はf値が1.5になって暗いところにさらに強くなったものの、1,200万画素のままである。
14 Proも望遠・超広角では1,200万画素のままであり、「基本は1,200万画素」という路線は崩していない。スマホ内で使うならこのサイズがリーズナブルである、という考えに基づくものだろう。
4,800万画素になったメインカメラも、画素を複数組み合わせて照度の低い環境に対応する。俗に「ピクセルビニング」と呼ばれる技術だが、結果として撮影される写真は「1,200万画素分」のデータとなる。このあたりのアプローチは他のハイエンドスマートフォンでも一般化している手法であり、驚きはない。だが、手堅いやり方だ。
メインカメラを使って「4,800万画素の撮影データ」を得るには、撮影モードをProRAWにした上で、保存モードを「4,800万画素」にする必要がある。RAWかつ4,800万画素分なので、データは1,200万画素RAWの4倍になる。保存にはその分時間も容量も食う。連写して使うのは事実上無理だ。「ちゃんとセッティングして撮影し、現像して最終データにする」という使い方になるだろう。事実上「プロ(もしくは同等のこだわりがある人)向け」の機能であり、14 Proの方だけなのも理解できる。
iPhone 14は、スタンダードモデルもProモデルも、「静止画」について撮影のコアソフトウエアが一新されている。それが、発表会でも名前が出た「Photonic Engine」である。
Photonic Engineはソフトウエアベースの機能だが、撮影処理の初期段階から使われ、撮影して「写真」ができるまでのパイプライン全体に関わる。iPhoneのカメラ機能には複数の画像を合成してダイナミックレンジを広げる「DeepFusion」という機能があるのだが、この要素を写真データがよりRAWに近い段階からかけていくことで、中低光量部分のディテールを豊かなものにする。
実質的に静止画撮影の機能を作り直したようなもので、iPhone 13とは大きく異なっている。
ソフトウエアベースではあるが、センサーやISPなどと密結合する形で実装されているので、「iPhone 13にもOSアップグレードで搭載」というわけにはいかないようだ。iPhone 14以降の機能として使われていくことになる。
なお「静止画用」と書いたように、Photonic Engineは動画には使われない。それぞれ別のソフトウエアが適用される。
その3:「衛星での緊急通報」はアメリカ・カナダ専用だが……
iPhone 14の特徴としてアピールされたのが「衛星での緊急通報」機能だ。
これは、いわゆる衛星携帯電話とは違うものなので、勘違いしないでほしい。
衛星の方向にiPhoneを向けることで、携帯電話網の「圏外」であっても、衛星経由でテキストメッセージによってSOSを送れる、というものだ。
国土が広大であるが故に、車や自家用機で「携帯が圏外になる場所」まで移動できてしまうアメリカやカナダの事情にあった機能ではある。もちろん、万が一の時のためのもので、ほとんどの人が使うことのないまま終わると思う。そういう「万が一」の機能を用意することで差別化を図るのも、今のアップルの戦略の1つと言えそうだ。
前述のように、この機能はアメリカとカナダでしか使えない。サービス開始は今年の11月とされている。
では、日本向けなど他国で販売されるiPhone 14に機能が搭載されていないのか……というと、そういうわけではないようだ。日本で買ったiPhone 14も、アメリカやカナダに持っていき、さらに「万が一」の事態になった場合には、緊急通報が使えるのだという。
この種のサービスは、通報を受ける側が当局や地元警察、レスキューなどと連携して初めて機能する。その部分はアップルが各国向けに作っていくことになるのだろうから、準備が整っているアメリカ・カナダでしか使えないわけだ。日本や他国での展開について、アップルはコメントしていないので、準備を北米以外でも進めるかは「今のところわからない」、ということも認識しておいていただきたい。
その4:Apple Watch Ultra、実は「都市ランナー」にもおすすめ
デザインを含め、新製品の中でもっとインパクトが大きかったのは「Apple Watch Ultra」ではないか、とも思う。
ハンズオン記事でも触れたように、かなり大きいので好みはわかれると思う。そもそも、ダイビングやエクストリーム・スポーツの愛好家に向けた製品でもあるので、大きく付けやすく、画面も見やすく、壊れにくいことが求められる製品でもあるのだが。
ちょっと意外に思えるが、Apple Watch Ultraはビル街を走るランナーにもお勧めしたい。
理由は、Apple Watch Ultraが「高精度2周波GPS」に対応しているからだ。L1とL5、2つの電波を使って精度を上げる仕組みだが、アメリカのGPSに加え、日本の準天頂衛星システム「みちびき」(QZSS)の高精度測位にも対応する。
みちびきはGPS互換なので、L1だけならば以前から対応はしていたのだが、アップル製品としてL1/L5の両方に対応するのは初となる。
「アップル製品として」という表現でお分かりのように、すでに市場には2周波GPS対応のスマホはある。たとえば昨年発売の「AQUOS R5G」や今年発売の「AQUOS R7」は対応機種だ。だが、スマートウォッチで、ということになるとまたちょっと事情は変わる。
ビル街などでは衛星を測位しづらくなって精度が落ちやすいが、L1+L5で測位できれば精度は上がることになる。だから「都市ランナー向け」と表現したわけだ。
L1+L5対応については、Apple Watch Ultraだけでなく、iPhone 14 Proシリーズも対応している。iPhone 14や14 PlusはL5に非対応なので、より精度の高いGPSを求めるなら、Proの方を選ぶべきだ、ということになるだろう。