西田宗千佳のRandomTracking

第623回

アップル「WWDC 2025」AV目線で見る7つの変化

会場となるアップル本社に置かれたロゴ

アップルの開発者会議「WWDC 2025」を取材するために、米クパティーノに来ている。

新OSは全て末尾が「26」に統一

6月9日(現地時間)に開催された基調講演では、OSのブランド表記を年号に合わせることや、新しいデザインである「Liquid Glass」などが発表されている。

発表関連の速報は出ているが、ここではAV関連目線から、今回の発表の中で「知っておくべきこと」をまとめてみたい。

その1:デザイン変更はオーディオビジュアルにはプラス

冒頭でも述べたように、今回目玉となる変化は「Liquid Glass」の採用だ。

新デザインLiquid Glassを導入

iPhoneでのUI変化は2012年の「iOS 7」以来のこと。現実を模した「スキュモーフィズム」から「フラットデザイン」になったのがそのタイミングだ。

今回は13年ぶりの大幅刷新……と言われるのだが、これは正しくないと筆者は考えている。

Liquid Glassに続く「透明感を活かしたデザイン」の系譜は、2020年以降のmacOSなどで使われてきた。特に、2024年に発売された「Apple Vision Pro」では、UI全体がガラスを重ねたようなものとして構成されている。

こうしたこれまでの取り組みをベースに、主要製品すべてで一気に導入したのがLiquid Glassと言える。

ガラス的なUIは珍しいものではないが、特にコンテンツを扱うアプリケーションでは、すりガラスのような効果で画像と枠をつなげるのが1つのトレンドにもなっている。ある意味で、Liquid Glassもその流れにある。

アップルはかなりLiquid Glassを慎重に作っている。単に重ねるのではなく、光の当たり方や後ろにあるコンテンツがどうなっているかを配慮した表現となっている。

Liquid Glassを使ったUIの例

公開されたスクリーンショットを見る限り、いままで以上にコンテンツを邪魔しない作りになっている。iPhoneやiPad、Macでコンテンツ視聴をするだけでなく、Apple TVも同じデザインモチーフになり、機能と見やすさの同居が図られる。

テレビにつないで使うデバイスとしての「Apple TV」は、アップル製品の中では比較的進化が緩やかなものである。毎年OSのアップデートはあるが、iPhoneやMacに比べると変化の幅が小さい。「テレビでストリーミングコンテンツを見る」という用途に大きな変化がなく、その関係もあるだろう。

Liquid Glassの導入でUIが変わることもあり、Apple TVも印象がかなり変わってくるだろう。

Apple TVでのLiquid Glass

透明なレイヤーを重ねるLiquid Glassは、コンテンツを邪魔せずに操作するには向いている。ちょっとしたことではあるが、画面の印象を変えてくれる。

ただし、UIと背景の間のコントラストが下がりやすく、「どこがUIか分かりにくくなる」という問題も抱えやすい。

アップルがそこにどういう解決方法を持ち込み、実際どう見えるのか(すなわち常に使いやすさを維持できるかどうか)は、広く使われてみるまでわからない。

その2:Apple Intelligenceはどうなった

昨年のWWDCでは、iPhoneを中心としたアップル製品で使うAI機能として「Apple Intelligence」がアピールされた。日本でも4月から利用になった。

ただ、昨年発表された「Siriの改善」は3月に提供延期がアナウンスされており、今回も、「開発作業は継続中。より多くの時間が必要で、詳細についてはここからの1年でお伝えできるだろう」(アップルのソフトウェアエンジニアリング担当シニア・バイスプレジデントのクレイグ・フェデリギ氏)というステータスだ。

今年もApple Intelligenceは主軸の1つだが……

Apple Intelligenceの追加機能としては、ビデオ通話やメッセージングに翻訳を組み込む「ライブ翻訳」や、通話をAIが書き起こして「出るべきか」を決める、スクリーンショットの中を把握して検索やカレンダー登録に使う機能などがある。どれも、他社がすでに導入済みのものに似ている。

ライブ翻訳。通訳機能は大きなニーズがある
スクリーンショットでのVisual Intelligence。スケジュール設定なども行なえる

このことから、「アップルはAIで他社に遅れをとっている」との論調もある。筆者も基本的には同意する。他方、他社製品にあるものでも便利なものは追いかけて実現されるもので、その辺はお互い様のようなところがある。

その中で、アップルがいかに他と違うユーザーインターフェースを実現できるかがポイントになってくる。

実装という意味で面白いと思ったのが、Apple WatchとiPhoneの連携で実現される「Workout Buddy」だ。

Apple Intelligenceで音声を生成、ワークアウトをバックアップする「Workout Buddy」

これは自分のワークアウトとフィットネスの履歴を取り込み、自分に合わせて声で「ワークアウトのアドバイスやモチベーションアップ」を伝えてくれるもの。海外で展開されているサブスクリプション制のフィットネスサービス「Fitness+」のインストラクターの声をベースに、iPhone上のApple Intelligenceで作られた音声が流れるようになっている。

現状は英語だけの対応だが、自分に合わせたAIの音声コミュニケーションだと考えると、可能性の高い機能だ。こんな「複数デバイス連携」から、アップルらしいAIは形作られていくのではないか、と感じる。

今回、Apple Intelligenceの使うAIの基盤モデルを、デベロッパーも使えるようにするフレームワークが発表される。スマホの中でオンデバイスAIを動かすことは珍しくないし、そのための小型モデルも複数存在する。

ただアップルの施策は、AIモデルの利用コストも処理コストもかからず、小型モデルをアプリ向けに構築するための知識もいらない。アプリ開発者がAI=Apple Intelligenceの機能を取り込むには良い施策である。そうしたところから、AIを使うキラーアプリ的なものが増えてくると、状況もまた大きく変わってきそうだ。

その3:音楽は「体験する」アップデート多数

よく見ると、音楽系の機能の変更も多いWWDCだった。

iPhoneをマイクにしてカラオケを

また、iPhoneをマイクにしてのカラオケ機能は、意外と支持されるのではないか。「別にそこまでしなくても」と思うかもしれないし、「隣近所への影響が」というマイナスイメージを持つ人もいるだろうが、それはそれ。音楽の楽しみ方として、世界中で定着しているものでもある。

以前から「カラオケ化」「歌詞表示」機能はあったが、新OSからは「歌詞の翻訳」「発音の確認」機能が追加される。アメリカ市場の場合、その昔は英語の楽曲しかヒットしなかったものだが、今はK-POPやJ-POP、アニソンなどが売れるようにもなった。そうすると、歌詞の翻訳表示や発音の確認は重要な要素だ。日本で他国の曲を楽しむにも有用なのは間違いない。

流している音楽の歌詞を翻訳したり、発音を確かめたりもできる

そうした機能を組み合わせて「音楽を体験する」要素は、ストリーミング・ミュージックの利用頻度を増やし、アーティストのファンを増やすためにはとても大事な要素でもある。

また、軸は違うがVision Proにも「音楽を体験する」機能が増える。

詳細は次のパートで述べるが、visionOS 26では「ウィジェット」機能が導入される。この機能を使うと、楽曲のアルバムアートが大きく、額装されたポスターのように表示される。

visionOS 26のウィジェットでは、楽曲をポスターのように貼り付け

要は、好きな曲を部屋に飾れるようなものであり、これはなかなかインパクトのある体験になりそうだ。

その4:Vision ProはOSアプデで劇的に変わる

新OSの中でも密かに大きなアップデートとなっているのが、Apple Vision Pro向けの「visionOS 26」だ。

前出のように、Liquid Glassの先行投入的な意味合いを持っていたので、UI自身はそこまで大きな変化はない。

だがどうやら、品質と機能の改善はかなり大きいようだ。

基調講演で語られなかった重要な要素として「画質の向上」がある。表示アルゴリズムの見直しなどから、文字や仮想ディスプレイなどの表示品質が向上している。Vision Proは画質を中心とした体験が中心のデバイスなのだが、そのポテンシャルがさらに高まったといえる。

基調講演で発表された、自分を模したアバターである「Persona」の画質向上も大きい。写真を見ていただければわかるが、リアリティはこれまでとは別物に変化している。

左がvisionOS 26の、右がvisionOS 2のPersona。リアリティが大きく変わる

「ウィジェット」の活用は、Vision Proの使い勝手を一変させる可能性が高い。部屋の壁に時計やカレンダー、ミュージックなどのウィジェットを貼り付けられるのだが、かなりリアルで、まるで壁に埋め込んだように表示される。

壁に好きなウィジェットを配置できるようになる

ウィジェットはアプリとは別に情報を画面内に置く仕組みであり、スマホやiPadでもおなじみのものだ。基本的にはvisionOSでも同じ仕組みが採用されるので、色々なアプリと連携する形でウィジェットが使えるようになる。

前述のように、「ミュージック」アプリ用のウィジェットは特に良い体験になるだろう。

こうしたコンセプトは他社も模索していたものではある。Metaは「Meta Quest 3」発表時に「オーグメント」として、近い機能を実装しようとしてきた。しかし結局課題が発生、現在再開発を行なっている。Android XRでもウィジェットを採用しているが、それがどのように空間に配置されるかは明確になっていない。

どちらにしろ、空間に何かを配置することは、いわゆる空間コンピューティングでは基本的なコンセプトではある。それをシンプルかつ高画質に実現したことはVision Proの価値を高めるし、今後出てくる「visionOSを使う別の機器」にとってもプラスだ。

Immersive Videoコンテンツを増やす試みも進む。Insta 360・Go Pro・キヤノンの3社のカメラで撮影した、いわゆる360度ビデオ・180度ビデオのネイティブ再生に対応する。

360度ビデオ・180度ビデオのネイティブ再生に対応

昨年はキヤノン・Black Magicの二眼・3Dカメラへの対応が発表されたが、今年は2Dの広視野ビデオの扱いが改善された形だ。

また、スイス・Logitechが年内に発売する「Muse for Apple Vision Pro」と、ソニー・インタラクティブエンタテインメントの「PlayStation VR2 Senseコントローラー」(PSVR2コントローラー)に対応することが発表されている。

Logitechが年内に発売する「Muse for Apple Vision Pro」
PSVR2コントローラーがVision Pro に対応

LogitechはMeta Quest向けにMuseに似た「MX Ink」という製品を発売済みだ。これとMuseの具体的な違いは不明だが、Museは6DoFでのトラッキングとボタン操作、ジェスチャー操作を備えているとする。

実はvisionOS 26ではゲームコントローラー自体の扱いも改善されている。一般的なBluetooth接続のゲームコントローラーと接続した時の表示や挙動が変わり、仮想空間の中でのゲームがしやすくなった。それに加え、PSVR2コントローラーで両手を使ったVR向けゲームへの対応も進む……という流れである。Vision Proを使うときの基本がハンドコントロールである点は変わらないものの、コントローラーでより正確な操作も可能になりそうだ。

なお現状、PSVR2コントローラーはPSVR2本体とセットで売られており、コントローラーだけでは購入できない。今後どうなるかはSIEに確認中で、何か分かり次第追記する。

その5:iPadは「ビデオ・音声収録」を目指す?!

iPadはずっと「クリエイティビティの拡大」がテーマだった。画面分割による複数アプリの同時利用などの改良はあったが、それを支持する人は意外と少なかったのが実情だ。

iPadOS 26では、Macと同じような形でのアプリのマルチウインドウ化やメニュー操作が実装される。「だったらMacにしてしまえばいい」という話もあるだろうが、そこはある意味逆で、「iPadのUIがリッチなので、それをどうMacに寄せていくか」というテーマがあったと考えるべきだろう。Mac用アプリをそのままタッチ対応にしてもさほど便利ではない。

iPadOS 26がMacっぽいマルチウインドウ操作に対応

OS環境やアプリ構造の違いを少しずつすり合わせ、「よりMacっぽく使えるようにした」というところだろう。

もちろん、コードを書いたりするにはMacの方が良い。

一方で、ビデオ編集や収録といった、iPadの機動性を活かせそうなところでも、従来はちょっとしたところが使いづらかった。オーディオ入出力デバイスを明示的に切り替えること、バックグラウンドで動画の書き出しをする効率などはその典型例だ。

音声の入力・出力をMacやPCと同じように切り替え可能になった

iPadにもマルチタスクはちゃんとあるし、マイクなどの併用もできる。ただ、そのハンドリングがMacほどシンプルではなく、使い分けが難しかった。

今回からそうした部分が改善することで、「Macでなくてもいい」シーンを増やしていく意図はありそうだ。

その6:AirPodsのマイク入力が強化

まだあまり情報はないのだが、AirPods 4やAirPods Pro 2に、「スタジオ品質のオーディオ録音機能」とカメラリモート機能を追加する。

「スタジオ品質」の根拠ははっきりしない。だが、より音声収録の精度を上げつつ、同時に、周囲のノイズを削減して声にフォーカスする「ボイスアイソレーション」が行なわれる。

結局のところ、今のBluetoothヘッドフォンはソフト制御の塊だ。特にアップルは、自社チップを使っているが故に、ソフトのコアをいじって品質や機能を改善することに積極的だ。今回もその方向性での機能アップが行なわれた……と考えればいいだろう。

今回対応するのはAirPods4とAirPods Pro 2。すなわちH2を内蔵した製品ということになる。

スタジオを使ってハイエンドマイクで収録するほどの品質にはならないだろうが、日常的な音を改善する、という意味では有用であり、ユーザーにとっては間違いなくプラスだ。なにより追加出費がないのが良い。

この辺は、Macと使うことも重要だが、iPhoneやiPadとともに「色々な場所でコンテンツを作る」ことを意識した機能のように感じる。

その7:コンテンツには継続して注力

オーディオビジュアルファンとしては、Apple TV+でのコンテンツも気になるところだ。

アップルの発表会ビデオでは、ティム・クックCEOをはじめとした同社エクゼクティブが演じるコント(失礼)が流れる。今回の基調講演冒頭では、6月27日に公開を控えた、アップル出資による映画「F1/エフワン」をモチーフにした映像が流された。

今年のWWDCコントは「F1/エフワン」モチーフ

WWDCは「開発者会議」なので作品の話はほんの少しだったが、アメリカの配信サービスの中で「オリジナル作品のレーティング評価が高さ」のランキングでトップを維持していることがアピールされた。

コンテンツの質の高さをアピール

これはあくまでアメリカ市場目線での話であり、他国での評価はまた異なる。Apple TV+はアメリカ向けに作られたコンテンツが多く、それが1つの課題ではあるのだが、確かに質は高い。

特に「F1/エフワン」は、予算も期間もかけた、Apple TV+始まって以来の大作である。劇場公開も含め、アップルとしても相当な期待をかけているのだろう。

西田 宗千佳

1971年福井県生まれ。フリージャーナリスト。得意ジャンルは、パソコン・デジタルAV・家電、そしてネットワーク関連など「電気かデータが流れるもの全般」。主に、取材記事と個人向け解説記事を担当。朝日新聞、読売新聞、日本経済新聞、AERA、週刊東洋経済、週刊現代、GetNavi、モノマガジンなどに寄稿する他、テレビ番組・雑誌などの監修も手がける。 近著に、「生成AIの核心」 (NHK出版新書)、「メタバース×ビジネス革命」( SBクリエイティブ)、「デジタルトランスフォーメーションで何が起きるのか」(講談社)などがある。
 メールマガジン「小寺・西田の『マンデーランチビュッフェ』」を小寺信良氏と共同で配信中。 Xは@mnishi41