西田宗千佳のRandomTracking
第524回
iOS 16、空間オーディオ、MacBook Air、WWDCを“7つの観点”でAV的に深掘り
2022年6月8日 09:17
今年も、アップルの年次開発者会議「WWDC」の季節がやってきた。
コロナ禍で2年間、完全オンラインの形で開催されてきたが、今年は抽選で選ばれた1,000名の開発者と、プレス関係者が、アップ本社「Apple Park」に集まり、オンラインとオンサイトのハイブリッドの形で開催された。
新MacBook Airから新OSまで色々な発表があったが、逆に噂になっていても出なかったものもある。
その辺を、AV Watchらしく「AVな観点」で順番に解説していくことにしよう。
その1:基調講演が屋外ライブ的だった意味
筆者も3年ぶりにWWDCの基調講演を「リアルで」「現地で」取材したことになるわけだが、戸惑いがなかったわけでもない。
いわゆる壇上でのプレゼンテーションではなく、屋外に設置された巨大なディスプレイで、ネット配信されたのと同じ基調講演映像を視聴する形だったからだ。
「リアルの場に行ったのに映像見るんじゃ意味ないじゃん」
そんな風に思うかもしれない。そんな残念さは、確かに筆者にもある。
ただ一方で、基調講演を聞きつつ写真を撮りながら、「なるほど、これはこれでいいのか」と思ったのも事実だ。野外フェスのように、多くの人が盛り上がりながら、一緒に映像を見ているという様子は、確かに印象的だった。
屋外を選んだ理由は、コロナ禍から日常に戻る中で、まだ「大人数が屋内に集まって大声を出すイベント」への戸惑いもあるのだと感じる。参加には現地での抗原検査が必要で、定められたKN-95規格のマスク着用も求められる。それらの入ったキットを参加者に配った上での開催だった。厳密なルールとは言えないと思うが、「完全に元通り」に、フリーハンドでイベントが行なわれていたわけでもない。
そして、参加者には基調講演以外にも目的がある。
開発者は現地で、アップルの担当者や別の開発者と対話するという目的があるし、プレス関係者には新MacBook Airのハンズオン・イベントがあった(後者はもちろん、基調講演が終わるまで、その存在すら告知されていなかったのだが)。
それらの諸事情を加味した「ベターな開催方法」が、今回のパターンだったということかと思う。
その2:「空間オーディオ」のパーソナライズがさらに進む
さて、ちょっと前置きが長かったが、発表内容に入っていこう。
いきなり、AV Watch的な「細かい話」から行きたい。
iOSの次期バージョンである「iOS 16」には、「個人単位でパーソナライズされた空間オーディオ」の機能が搭載される。
ご存じのとおり、アップルは自社の音楽サービス「Apple Music」や、映像配信サービス「Apple TV」で、Dolby Atmosによる空間オーディオを訴求している。
これまでは主に、AirPods ProやAirPods Maxのような「モーションセンサー」を搭載した製品を使い、首の向きと楽曲の情報を組み合わせることで空間オーディオを表現してきた。
一方、空間オーディオの実現には、音が頭などに当たりながら耳へと届く際の特性である「頭部伝達関数(HRTF)」の利用が欠かせない。
これまでアップルは「多くの人に適応するHRTF」を使ってきた。詳しくは、以前掲載したアップル担当者へのインタビューをお読みいただきたい。
アップル・アコースティック設計責任者に聞く「アップルの考えるオーディオ」
だが、HRTFは人によって違うものなので、本来は各人に合わせて計測し、それを使うのが望ましい。ソニーの場合にはアプリを使って耳の写真から、個人のHRTFを推計して使う方法が採用されていた。
では、今回iOS 16で採用される「個人単位でパーソナライズされた空間オーディオ」はどういうものなのか?
基調講演では詳しく語られなかったが、その後詳細が判明した。
今のiPhoneには顔認識用の「Face ID」があり、そこでは画像だけでなく、顔の立体構造が活用されている。そのため、Face IDには「True Depth Camera」と呼ばれる、赤外線ドットとイメージセンサーを組み合わせた「立体構造を把握する機構」がある。
使うのはこのTrue Depth Cameraだ。
具体的にどうするかといえば、iPhoneで「Face ID」を登録するときの要領で、顔をグルッと回して認識させる。そうすると頭と顔の形状が立体としてキャプチャできるので、そこからHRTFを推測し、再生に活用するのだ。最適化データはiCloudを経由して自分が持つアップル製品で共有されて利用される。
逆に言えば、この最適化は「iPhoneと空間オーディオ対応AirPodsの両方を持っている人」向けの機能、ということになる。
実際に試せているわけではないので、音質の変化など詳細はわからない。この点はまた後日、確認した上で記事化などを進めたい。
その3:「iOS 16」はロックスクリーンと「日本語ライブテキスト」に注目
iOS16は、意外と大きな変更の多いバージョンになる。
一番目立つのは「ロックスクリーン」の改良だろう。
ウィジェットを置いて情報を追加するなどの「機能」面を、iOSはあまり重視してこなかった。そのため、Androidに対し見劣りする部分もあった。
だがiOS 16からは、ウィジェットの配置を含め、機能が大幅に強化される。AV的には、再生される音楽の表示が変わり、アートワークとともに楽しめるようにもなることが大きいだろう。
実はロックスクリーンの強化は、Apple Watchの「文字盤」に関する技術開発から生まれたものであるという。情報を表示する「コンプリケーション」や、時計のカスタマイズ、写真の主役を避けて時計を配置する「マルチレイヤー・オーバーラップ」など、比べてみると似ている点が多いのに気づく。
ただ、もちろんこれはiPhone向けの機能なので、独自の部分もある。
Apple Watchでマルチレイヤー・オーバーラップを使うには、もともと深度情報のある「ポートレートモードで撮影した写真」である必要があった。だがiPhoneの場合には、SoCの中にある機械学習コアである「Neural Engine」を生かし、画像から主役となる大きな要素を自動的に切り抜く。人物でもペットでも、建物でもいい。だから、ポートレートモードで撮影した写真はもちろん、普通の写真でも大丈夫だ。
写真から「主役」と言える部分をワンタッチで切り抜く機能は、ロックスクリーンだけで使えるわけではない。
Photoshopなどの画像編集ソフトには「背景を残して自動選択」する機能があったりするが、それと同じことが「写真」アプリでも可能になる。だから、ペットや自分の姿だけを切り取って、メールやメッセージに貼り付けて送る……なんてことも可能になってくる。
こうした「オンデバイスのAI」を使った機能は、今のアップル製品のテーマとも言える。
特に日本人にとって大きいのは、昨年の「iOS 15」「iPadOS 15」「macOS Monterey」に搭載された「ライプテキスト」が日本語対応したことだ。
ライブテキストは、画像に含まれる文字を認識し、まさに文字列のように「コピペ」できるようにするものだ。画像からわざわざテキストでメモを「書き直す」必要がなくなる。英語や中国語は今でも使えているが、日本語に対応するのはやはり朗報だ。
特に今年の新OSからは「ビデオからのライブテキスト」にも対応するのが大きい。料理ビデオやプログラミングの解説ビデオから必要な情報を「コピペ」して再利用するのが簡単になる。
特に、ある種の情報番組としてYouTubeをよく見ている人には、この機能がとても便利なものになるのではないか、と予想している。
その4:iPhoneをウェブカメラに
機能的になかなかの驚きだったのは、MacとiPhoneをセットにし、iPhoneのカメラを「Macのウェブカメラ」として使える「Continuity Camera(連係カメラ)」だ。
ワイヤレスでiPhoneとMacを連携させて使うもので、マグネットを使ったアダプターなどでMacの上に取り付けると、そのまま高性能なウェブカメラになる。
そもそも一般的なウェブカメラに比べ、iPhoneのカメラは性能がずっといい。だから「スマホをウェブカメラ化するアプリ」はこれまでにもあった。だが、アップルがOSの機能として搭載してくると、さらに多くの人が使うようになるだろう。
面白いのは、自分の顔だけでなく、同じiPhoneで「机の上」まで撮影できることだ。iPhone側の広角カメラの映像をうまく使い、さらに補正をかけることで、こうした表現が可能になる。
そのため、この機能はどうやら、「超広角」カメラを搭載しているiPhoneでないとだめなようだ。すなわち、iPhone SEなどはウェブカメラにはなれても、一部機能が制限されるわけだ。
その5:M2に刷新された「新MacBook Air」
最もわかりやすい大きな話題は、「新しいMacBook Air」と「13インチ MacBook Pro」が発表になったことだろう。
WWDCは開発者向けのイベントなので、毎回ハードの発表があるとは限らない。むしろ今回のように、マス向けのMacが発表になるのは珍しい……とも言えそうだ。
今回発表されたのはシンプルな話で、マス向けのMac用AppleシリコンがM1から「M2」に刷新されたため、それを搭載した製品も登場することになった……というところがある。もう少し正確に言えば、2020年に初のM1搭載製品が出てから2年が経過し、それらの製品の更新時期が来たので「マス向け製品用プロセッサー」であるM2が登場した、というべきだろうか。
M2は、半導体製造プロセスの進化(5nmの第一世代から第二世代へ)や、CPUコア(主に高効率コア)の性能アップ、GPUの製造アップとコア数増加などの総合的な進化によって、M1よりも高速なプロセッサーになっているという。
ただ、M1 ProやM1 Max、M1 Ultraよりも速いわけではない。コア数やメモリーの量、外部ディスプレイの接続可能数など、まだまだ「M2より良い部分」も存在する。
要は、「マス向けMac」用の第二世代がM2であり、「プロ向けMac」用の第一世代であるM1 Pro/Max/Ultraとはニーズがちょっと違う、ということのようである。
2021年秋に発売された「14インチ/16インチ MacBook Pro」は、デザインやキーボードなどを刷新した製品になっていた。それと同じように、「より新しいデザインテイスト」へと刷新されたのが「新しいMacBook Air」と言ってもいいだろう。
そういう意味では、新しい13インチMacBook Proは、「デザインや機能は変えずにM2搭載にした」部分が強い。だとするなら、MacBook Airの方がおすすめできる。ハイパワーで負荷の多い作業を続けるなら、ファンレスのAirよりもファンがあるProの方が有利ではある。とはいえ、そうした用途なら、14インチもしくは16インチのMacBook Proを選んだ方が満足度は高いと思う。
なおM2には、従来はM1 Pro/Max/Ultraにしか搭載されていなかった、ProResビデオを扱うための「Media Engine」が搭載されている。だからビデオ編集などを高速化しつつ価格は抑えたい……という場合には、あえてM2搭載モデル(特にMacBook Air)を選ぶのが良いのではないか、とも思う。
その6:実は予兆があった「iPadOS 16」での進化
「iPadOS 16」については、M1搭載の製品とそうでない製品とで方向性が変わる、ちょっとした分水嶺のようなバージョン、という印象を持った。
一番大きな要素は、「Mac的」なアプリの扱いが可能になる「ステージマネージャ」が登場し、マルチタスク性能が向上することだ。
iPadのようなタッチ環境では、Macのようにウインドウをリサイズして重ねるのはどうだろう……と思われるかもしれない。筆者もまだ実際に操作したわけではないので、正確な評価は保留としておきたい。
だが、なにもiPadでの操作が、いきなり「PC/Mac的ウインドウ」に変わってしまうわけではないのだ。
「ステージマネージャ」は、音量や輝度の切り替えなどに使っている「コントロールセンター」から呼び出す。オンにした時、アプリの切り替え方が変わるようなイメージであるという。
実はこの機能、昨年以前から「予兆」があったようだ。
iPad用のアプリをウインドウ化したりリサイズしたり、というイメージはあまりなかっただろう。だが、Appleシリコン用macOSが登場した際、「iPhoneやiPad用のアプリがMacでも使える」ようになっていた。この際、Macで使う場合には「iPad用のアプリをウインドウ化したりリサイズしたり」ということが可能になっていた。
すなわち、すでにそうした機能を使って作られているアプリはけっこうあって、その対応方法も見えている。その流れで、iPadをよりMacっぽく使うアプローチは可能になっていったのだ。
また同時に、PC/Macでは当たり前だった「仮想記憶」がiPadOS 16から利用可能になる。そのため、重い処理をしつつ別のアプリを使う、といったことをしても、アプリの動作が止まらない場合が増えると期待できる。AV的に言えば、ビデオ編集後に書き出しを待ちつつ、メールを書いたり他の映像を見たり……という、PC/Macでは一般的な使い方をしても問題がない、ということだ。
ただ、これらの機能は「M1搭載のiPad」、すなわち、iPad ProとiPad Airでのみ利用可能である。
M1搭載iPadは「PC的なクリエイティビティ」を目指すツールであり、Aシリーズを使ったiPadは「コンテンツ視聴を中心に、もう少しカジュアルな使い方をするツール」ということになるのかとも思う。
なお、12.9インチのiPad Proについては、ディスプレイの発色を特定の規格に合わせ、Macの側とも擦り合わせる「リファレンスモード」が用意される。
これは設定してあれば、その後はMacと接続した時には自動的に有効になる。また、この機能が必要なアプリを使う場合には自動的にオンになるよう、アプリを作ることも可能だという。
カラーマッチングが必要なプロがiPadを閲覧用機器として使うためのもの……と言ってもいいかもしれない。
その7:「次世代CarPlay」で車内エンターテイメントはどうなるのか
最後は、チラ見せされた「次世代CarPlay」だ。
CarPlayはiPhoneを自動車に連携させる機能で、自動車内の専用機器(ナビやオーディオ)とiPhoneを連動させ、もっと楽に使うための機能、として使われている。
日本にも対応車は多数ある。Android向けの同種の機能である「Android Auto」と合わせて、自動車側でサポートするのも容易になってきたからだ。
基調講演では、特に「アメリカ市場での浸透度」がアピールされた。アメリカ市場で販売される98%の自動車に連携機能が搭載されており、自動車購入検討者の79%が、CarPlay搭載前提で自動車を選んでいるという。
そのCarPlayが、次世代ではより「自動車の中」に踏み込む。
自動車の速度やエンジンの回転数などの情報を表示しつつ、その表示の仕方や操作を利用者がカスタマイズできる方向になるという。
例えば、自分が乗ったことのないレンタカーを借りると、細かい操作は覚え直しになる。
だが、もし操作・表示を自分の車に合わせて変更可能になるなら、iPhoneを持ち込んで接続するだけで、「見慣れたコントロールパネルと操作の自動車」に変化させられる、ということでもある。
こうした要素はEV向けのUIとして、いろいろな企業が訴求している考え方に近い。
ソニーが2020年に試作したEV「VISION-S」でも利用者に合わせてカスタマイズ可能なダッシュボードが採用されていたし、市販車だと「Honda e」もほぼディスプレイだけで構成されたダッシュボードを使っている。
しかし、こうやって「自動車の中の情報をどうカスタマイズしてみせるか」というところにiPhoneが関わっていくようになるのは、自動車と車内エンターテイメントにとってはかなり大きなインパクトをもつ話と言えそうだ。
対応メーカーとして公表された中にはホンダや日産の名前があった。日本の自動車メーカーがどう関係を築いていくのか、逆にあえて距離を置くメーカーはどうするのか、その点も気になるところだ。