西田宗千佳のRandomTracking

第503回

WWDC 2021から「アップルの未来を占う5つの注目点」を整理する

基調講演のビデオは今回もアップル本社内で撮影されていた

今年も、アップルの年次開発者会議「WWDC」が開催された。コロナ禍の中、今回も完全オンラインであり、6月7日深夜に行なわれた基調講演ののち、開発者向けのセッションビデオの公開が土曜まで続く。

基調講演に登壇した、アップルのティム・クックCEO

WWDCは開発者イベントなので、もともと「新ハード発表会」ではない。そのため、新製品が発表されるとは限らない性質のものだ。だから、今回「ハードの新製品が一つもなかった」ことは驚きではない。とはいえ、「MacのAppleシリコンへの移行」が目玉だった去年に比べ、さらにハードウエア色の薄いイベントとは言えるかもしれない。

では、そんな今年のWWDCはどこが注目だったのか? 筆者が注目する5つのポイントを、基調講演後の取材で得られた情報も加味した形でご紹介していこう。

その1:FaceTimeの大幅拡充

今年、アップルが時間を割いて説明したのは、同社のビデオ通話サービスである「FaceTime」だ。

もっとも目立った強化は「FaceTime」の刷新だった

iOS 15の新機能……的な紹介ではあったが、FaceTimeはアップル製品全体が使っているサービスであり、iOS 15専用の部分は少ない。そもそも、アップルの各製品で使われているOSは、細かなUIが各機器に最適化されているものの、コアは同じ技術であり、その上で使われているサービスも同じ。各ハードが連携することが大きな価値にもなっている。なので、「iOSが」「macOSが」的に説明できる部分は、過去に比べどんどん減ってきているのが実情。FaceTimeもそんな存在の1つである。

コロナ禍でビデオ会議・ビデオ通話のニーズが高まったことは、いまさら説明するまでもないだろう。だが、そこでFaceTimeが利用数を順調に伸ばしたのか……というとそうではない。ZoomやTeamsといった「ビデオ会議系」のサービスの利用量が増えた人の方が多いのではないだろうか。

FaceTimeはZoomやTeamsと違う美点がある、と思う。特に、音声通話の音質や遅延の小ささなど、「コミュニケーションしやすくする」要素では優位にある。だが、サービスが個人同士のコミュニケーションに向いていて、ビデオ「会議」を指向しているわけではない。そこは秋以降も大きく変わらない。

報道では「Zoom対抗」と書かれることもあるが、筆者個人的には、今回の改善はちょっと違う、と思う。FaceTimeは会議向けのサービスとは違い、書類のシェアやセミナー機能などがない。今回もその点は強化されていない。だから会議向けにはZoomなどの方がいい……という点は変わらないだろう。狙っているのはやっぱり「個人」だ。元々の強みである「話しやすい」という要素を活かし、個人同士がより話やすく、話したくなる改善に向かっている印象だ。

その最たるものが「SherePlay」だ。

SherePlayは、NetflixやAmazon Prime Video、Hulu Japanなどが搭載している「離れた人と一緒に動画を見る機能」に近い。それらと違うのは、「OSがシェアする機能を持っていて、複数のサービスに対応するもの」という点だ。

動画や音楽などを、FaceTimeで通話している人と一緒に楽しむ「SharePlay」

使い方はシンプルである。

FaceTimeで通話中、シェアしたい動画や音楽を再生すると、「SharePlayを使いますか?」という表示が出る。そこでイエスを選ぶと、一緒に通話している人のところでもその動画や音楽が再生される仕組みになっている。

早送りや一時停止などの操作も連動するので、「みんなで一緒に楽しんでいる」感覚に近くなる。iPhoneやiPadでも使えるが、Apple TVを使ってテレビで楽しむことだってできる。

SharePlayはApple TVでの視聴にも対応

注意が必要なのだが、この機能は「ビデオ通話をしながら、各コンテンツの再生操作を同期するもの」という位置付けだ。コンテンツそのものがネットを介して相手にもストリームされるわけではないのだ。

だから、SharePlayでコンテンツを同時に楽しむ人は「同じコンテンツが再生可能である」必要がある。要は、同じサブスクリプションサービスに加入しているとか、再生の権利を持っているとか、そういう状況でないといけない。

だからSharePlayは、「同じサービスに加入している人同士で使うもの」と考えていい。アップルの「Apple Music」や「Apple TV+」はもちろんだが、アメリカではDisney+やHulu、NBAなどが対応してサービスが開始される。ただし、ここでいうDisney系サービスは「アメリカのもの」で、日本で展開中のものとはシステムが異なる点に留意していただきたい。記事執筆中の段階では、日本でも対応するかは未確認である。

アメリカでSharePlayに初期から対応するサービス群。Disney+などはあくまで「アメリカのサービス向けの発表」なのでご注意を

ただ、今回WWDCでSharePlayに対応するためのAPIが公開されたため、これを使ってSharePlayに対応する動画サービスは出てくるかもしれない。

また「空間オーディオ対応」も、コミュニケーションの強化にはプラスだろう。

といってもこの空間オーディオは、後述するApple Musicのそれや、映画で実現されているDolby Atmos対応とは関係ない。FaceTimeでの通話そのものが立体になるわけでもない。

空間オーディオ対応というのは、「画面上で自分が表示されている位置に合わせて話す声が聞こえてくるようになる」というもの。実際の空間では「その人のいる場所」から声が聞こえてくるわけだが、それに少し近い感覚を再現したい、ということなのだ。確かにそれは、スムーズなコミュニケーションには有効だろう。

FaceTimeの「空間オーディオ」対応は、表示されている位置に近いところから話している人の声が聞こえる……という性質のものだ

……と、このような話をしても、「でもFaceTimeはあまり使う気になれない」という人はいるだろう。これまではアップル製品同士でしか使えなかったためだ。AndroidやWindowsで使えないというのは、明確に利用者の幅を狭める。

今回アップルは、そこに改善を加えてきたのもポイントだろう。Android用やWindows用のアプリは公開しないが、ウェブ上からFaceTimeを利用可能にすることで、プラットフォームを選ばずに使えるようになった。ブラウザとしてはEdgeかChromeをサポートし、H.264で動画が再生できる環境であれば良いということなので、ハードルは非常に低い。

なお、個人的には、FaceTimeで「環境ノイズ低減」の動きがある点にも注目しておきたい。

現在色々なサービスや機器で、「AIを使ったノイズ低減」が実装されている。筆者も日常的に、キータイプ音をビデオ通話の音声から除去するアプリを使い、相手にタイプ音が耳障りにならないよう配慮するようになった。

FaceTimeでの通話が「周辺のノイズの積極的な除去」に対応する。どこまで大きなノイズが消えるのかはわからないが

どこまでの効果があるかはまだわからないが、FaceTimeでも環境ノイズをAI処理で除去し、声を優先的に届ける機能が搭載された。これは「より話しやすくする」という意味ではとても重要な機能だと思う。その効果が試せるようになる時が楽しみだ。

その2:空間オーディオとロスレス

AVメディアとしてはやっぱりこの話を取り上げないわけにはいかないだろう。

Apple MusicのDolby Atmosとロスレスへの対応がスタートした

他の話は秋の新OS公開までお預けだが、こちらはApple Musicに加入しているなら、誰でも、すぐに体験できる。端末ごとに順番に利用可能になっているようで、この原稿を書いている6月8日の段階では、「すぐに使えるようになった端末もあれば、そうでない端末もある」感じになっている。とはいえ、記事が公開される6月9日になれば、大半の人が利用可能になっているのではないだろうか。

楽曲を再生すると「Dolby Atmos」や「ロスレス」といった表示が出るようになっているはずだ

以前の記事でも解説したが、アップルはロスレス以上に「空間オーディオ」の方に力を入れており、「ステレオに続く次の革命」と位置付けている。

アップルは空間オーディオに特に力を入れ、価値訴求に取り組んでいる

Apple Musicはなぜ「空間オーディオ」「ロスレス」に対応したのか

それは、リニアな音質向上であるロスレス・ハイレゾに比べ、質の異なる体験へと変化する空間オーディオの方が大きな可能性を秘めているからだ。

もちろん実際に聴いてみると、今の音が完璧かというとそうではない。だが、色々な環境で「ステレオよりも広い音の感覚を楽しめる」のは、確かに大きな可能性を秘めた進化だと思う。ギミックのように音が動くのも面白いが、手頃なデバイスだけで「コンサートホールのように自分の周囲に音が広がっていく」のもまた、新しい可能性だと感じる。

アップルが空間オーディオのフォーマットとしてまずDolby Atmosを選んだのは、制作作業が容易だからだ。アップルは自社の音楽制作ツールである「Logic Pro」を今年後半にアップデートし、アーティストの自宅にあるMacからでも簡単にDolby Atmos対応楽曲の制作が行なえるように環境を整えるという。

また、Apple Musicで音楽用に使われているDolby Atmosは、映画用のシステムを流用したもの“ではない”。高いビットレートを使う、独自の音楽再生用レンダラーが使われている。そこも、最適な空間オーディオを実現するための工夫である。

実際の視聴は簡単だ。基本的に、アップル製品のスピーカーやAirPods Max・Beatsなどのワイヤレススピーカーでは、機器を自動的に判断し、最適な形でDolby Atmosコンテンツが再生される。手元で聴いた限りでは、内蔵スピーカーで楽しむ場合、MacよりもiPhone/iPadの方が、音の広がりは感じられると思う。

特にAirPods Maxはアップルとしても「空間オーディオに最適なヘッドフォン」と位置付けている。ヘッドフォンの内部のマイクでリアルタイムにイコライザーをかけて音質を調整すること、内部に搭載されているモーションセンサーを活用できることなどが理由だ。

ただし、他社のヘッドフォンで(ワイヤレスでも有線でも)再生できないわけではない。Dolby Atmosに関する設定を「常にオン」にしておけば再生は可能だ。単に「他社製品はAtmosに最適なスピーカーかを判別する情報がない」ので自動切り替えにしていないのである。

Atmosでの再生設定を「常にオン」にすると、「すべてのスピーカーには対応していない」との警告が出るが、アップルのヘッドフォンなど以外でも再生が可能となる

また注意が必要な点としては、すでに楽曲を本体内にダウンロード済みの場合、自動的にDolby Atmos版に置き換えられるわけでは“ない”ため、改めてダウンロードしなおす必要がある。

楽曲をステレオでダウンロード済みの場合、一度削除して再ダウンロードを。「Dolby Atmosをダウンロード」としておけば、今後新たにダウンロードする曲はそちらが優先になる

現状はアップル製品からの再生のみに対応しており、Android版のApple Musicアプリからは再生できない。しかしこれは一時的なもので、今後すぐに、Android版でも空間オーディオとロスレスオーディオへの対応が行なわれる予定だ。

ロスレスの場合、最適な音質を得るには有線ヘッドフォンやDACなどの準備が必要になる。そのためか、標準設定ではロスレスが使えるようにはなっておらず、設定変更してから再生可能にする。

なお、今後のアップデートで、Apple TVやMacなども、AirPodsを使い、「映画などのDolby Atmos視聴」に対応するという。これも、AV的には重要な要素である。

M1対応MacやApple TVが、AirPodsでの「Dolby Atmosによる空間オーディオ」に対応する

その3:「オンデバイスAI」の強化

今回、各OSにおける技術的な特徴が「AIのオンデバイス化」だ。AI関連処理は学習結果の集約が必要であるため、多くの場合「クラウド側」と連携して行なわれていた。だが今回、データの取得などにクラウドは使うものの、AIの判断自体はiPhoneやiPadの中で行なわれるものが増えている。

象徴的なのは、音声アシスタントである「Siri」がオンデバイスAIになったことだろう。そのため、音声での応答や動作だけなら飛行機の中などのオフライン環境でも動作し、動作自体もより素早くなったという。

Siriが標準でオンデバイス処理となり、動作などが高速化する

写真機能もオンデバイスAIを活用するものの一つだ。写真や画像の中にある文字を認識し、そのまま「文字列」としてコピー可能にする「Live Text」は、情報の取得が必要なのでクラウド連携が必須だが、AIの処理自体はデバイス側で行なっているという。以前より、アルバム内の顔や場所、料理などの識別にはオンデバイスAIが使われていたのだが、それがさらに強化され、写真を探したり情報として使ったりするのが楽になったようだ。

画像内の文字情報を認識して「テキスト」として扱う「Live Text」。残念ながら日本語には対応していないが、文字入力の手間を省き、写真を検索しやすくするにはとても有効な機能だ

ヘルスケア機能もオンデバイスAIが活用する領域だ。例えば、健康状態の悪化により両足で歩くバランスが崩れてきたりすると、深刻な転倒事故が起きる可能性がある。iOS 15では、その兆候を事前に察知して教えてくれるようになった。

「ヘルスケア」として、歩行の安定性を評価する機能が搭載に。歩行バランスの崩れによる転倒事故の可能性を事前に通知する

こうしたことがオンデバイスAIになっているのは、どれも「プライバシーに関わる部分」が大きいからだ。

今までは許諾を得た上で情報を吸い上げ、ネット側で学習して対応していたが、プライバシー意識の高まりや、ヘルスケアのようなよりセンシティブな情報を扱うようになってきたこともあり、判断のためにはデータを収集せず、個人のデバイスの中で完結するようになってきたのだ。

アップルのソフトウェアエンジニアリング担当上級副社長であるクレイグ・フェデリギ氏は「プライバシー保護は基本的人権の一つであるとアップルは信じている」と基調講演の中で述べた。その方針を守り、他社と差別化するには、この路線を積極的に進めていく必要がある。

アップルのソフトウェアエンジニアリング担当上級副社長であるクレイグ・フェデリギ氏は「プライバシー保護は基本的人権の一つであるとアップルは信じている」と宣言

プライバシー対策としてのオンデバイスAIという考え方は、なにもアップルの専売特許ではない。AmazonもGoogleもFacebookも指向している共通の要素だが、自社製品全体で大々的に展開するのは、アップルという会社の方向性を示しているものであり、彼らがどこでライバルと差別化したいのかを示している、とも言える。

その4:MacとiPadの関係を(さらに)変える「ユニバーサルコントロール」

新しいmacOSの愛称は「Monterey(モントレー)」に決まった。

新macOSの愛称は「Monterey(モントレー)」

基本的な機能は現行バージョンである「Big Sur」の正常進化であるようだが、目玉機能も1つある。それが「ユニバーサルコントロール」だ。

Montereyの目玉機能である「ユニバーサルコントロール」

これは簡単に言えば、MacとiPad、MacとMacを連携する機能である。

ユニバーサルコントロールは各デバイスをサブディスプレイにするのでなく、「操作を連携させる」仕組みだ

Macには、iPadをセカンドディスプレイとして使う「Sidecar」という機能が既にある。一見それとバッティングしそうだが、狙いはちょっと異なったものだ。

ユニバーサルコントロールは、MacはMac、iPadはiPadのまま、Mac側でのポインター操作やキーボード入力を、そのままiPadや他のMacへと連携する機能、といっていい。

次の画像をご覧いただきたい。Macの隣にあるiPadの画面の端から、マウスカーソルが引っ張って飛び出るような感じになっている。これは、Macの画面上からマウスカーソルを「iPadの方に移動しようとしている」瞬間だ。

Mac(左)からiPad(右)へとポインター操作を移す時のひとこま。マウスカーソルが「ムニュッ」と画面から飛び出そうとしているのがわかるだろうか

iPadの側に移動すると、MacのタッチパッドとキーボードはiPadにつながったタッチパッドおよびキーボードと同じように動作する。そこでファイルを選び、そのまま「Macの側」にドラッグ&ドロップすることもできる。同じように、MacからMacへの移動も可能だ。

これは、それぞれの機器が「そのまま動作している」点がポイントになる。

Sidecarのようなセカンドディスプレイ型だと、iPadはディスプレイに専念してしまう。そういう使い方がいい時もあるが、「iPadにあるアプリを使いつつ、Mac側のアプリとも連携したい」時はある。iPadを横に置いてみながらMacで作業している場合は、そんな使い方が多い。その時の操作をより簡便化し、連携をスムーズにするのが「ユニバーサルコントロール」である。

今回のWWDCでは「iPadOSのさらなるmacOS化」を期待する声も多かった。だが、どうやらそうはならないらしい。双方をそのままにしつつ、いかに適材適所で使い続けるのかが、アップルの一つの解答という事になるのだろうか。

なお、iPhone/iPadとMacの連携という意味では、Macが「AirPlayを受信する側になれる」ようになるのも大きい。

Macを「AirPlayを受信するディスプレイ(サーバー側)にする」機能も登場

いままでMacは、他のデバイスと同じように「AirPlayのクライアントになる側」だったが、Montereyからは「Mac上にAirPlayでiPhoneの画面を出す」のが簡単になる。その種のことはサードパーティーが出している「AirPlayサーバーソフト」で行なうものだったが、その機能をアップルが公式化してしまった。24インチ画面を備えたM1版iMacが出て、大画面を活かしたいニーズが増える……と考えたからだろうか。

WWDCではよくあるパターンだが、今年の犠牲者は「AirPlayサーバーソフト」だったようだ。

その5:ついにiPadの「手書き」が日本語にも対応

今回の発表では、「他国は対応しているのに日本はまだ」という例もいくつか目立った。

写真機能における目玉である「Live Text」も日本語には未対応だし、新しく作り直されている地図データも、まだ日本には展開されていない。

Live Textは残念ながら日本語に非対応
新しい地図もまだ日本には対応しない

少し残念に感じるが、「基調講演では公表されなかった」範囲で、日本語への対応が強化された部分がある。

それが、iPadにおける「手書き」の日本語対応だ。

iPadOSには、検索窓などに直接手書きで文字を書き込み、そのまま認識して文字入力に使う「Scribble」という機能がある。昨年の「iPadOS 14」で搭載されたものだったが、今までは日本語に対応していなかった。

ただ実は「すぐに日本語対応をする」との情報はあり、個人的にもいまかいまかと待ち望んでいたのだが、ついに、iPadOS 15では「日本語対応」が行なわれる。

iPadOS 15の機能詳細を解説したページでは、「日本語での手書き入力の改善」が明記された。どうやらその一環として、Scribbleの日本語対応も行なわれるようだ。

iPadOS 15の機能詳細の中に「日本語での手書き強化」の項目が
iPadOS 15ではメモを素早く取るための機能が強化されている。日本語対応の改善とともに、使い勝手向上が期待できる。

Apple Pencilは「絵を描く人以外には訴求力が弱い」と言われてきた部分があるのだが、今回、メモ機能が強化されたことと日本語対応強化を合わせて考えると、「絵を描かない人も、使い勝手向上のためにApple Pencilを持っていた方が良い」ということになるかもしれない。

西田宗千佳