西田宗千佳のRandomTracking

第400回

アップルが描く未来のiOS・Mac・社会。WWDC 2018で見えてきた戦略

 アップルの年次開発者会議「WWDC 2018」が、今年も米・サンノゼで開催された。その個別の内容については、ニュースの形で本誌にも掲載済みだが、筆者からは改めて、現地からのレポートとして、基調講演の内容の分析記事をお伝えする。特にARを中心に、いくつかの内容は、現地で開発者などから聞いた、独自の情報を加味している。

WWDCが開催された、米・サンノゼにあるサンノゼ・コンベンションセンター
アップルのティム・クックCEO。今年も多くのプレゼンテーションを担当した

 ハードウェアの発表がなかったことから、今回の内容が「地味だ」と感じた人は少なくないようだ。筆者も、確かに「小粒に見える」とは思う。だが、それはハードウェアがなかったからではない。描かれた未来が突飛なものではないからだ。

 アップルが新OSの機能として提示した未来は、基本的には着実なものだ。しかし、ここに分析していくと、それぞれには強いメッセージ性があったことにも気付く。そのメッセージを10のポイントからひもといてみよう。

その1:iOS12は「買い換え」を強いない

 アップルにとって、現在最大のビジネスは「iPhone」。だから、iOSは特に重要度の高い存在であるのは間違いない。説明のボリュームとして、もっとも多くなったのはやはりiOSである。

 次期iOSは「iOS12」となるが、まず大きな改良点になるのが「速度」だ。

iOSの新バージョンの名前は、今年の11に続いて「iOS12」に。

 iOS12は、現在iOS11が動作しているすべての機種で動作するが、動作速度は遅くなるのではなく、逆に高速化する。アップルによれば、2015年秋に発売された「iPhone 6S」世代の場合、アプリ起動が最高40%、キーボード表示で最高50%、カメラ起動は最高70%速くなる……とのことだ。動作速度の変化については実機での検証が必要であり、今はあくまで「アップルによれば」という状況にある。しかし、OSが多機能化する中でパフォーマンスを高める努力が行われていることは、ほとんどの人にとって歓迎すべきことであるはずだ。

iOS12の最大の特徴は「高速化」。iPhone6sで比較した場合、アプリの起動だけで40%速くなっている。その他、2倍の速度改善が見込める場合も
iOS12でなぜ動作が素早くなるのか、の説明図。消費電力を下げるために細かくコントロールしている「CPUの処理速度」を、より急峻に「すぐ高速化して、すぐに速度を落とす」ようにする

 iOSは、アップルという1社がメインテナンスするOSであり、アップル製品にだけ使われている。だから、多数の企業が入り乱れるAndroidに比べ、「最新OS」が利用される比率はずっと高い。アップルは今回もそこをアピールし、「最新OS(iOS11)の利用者が81%」と数値を公表した。一方で、OSの刷新はハードウェアの進化も促す。「アップデートで重くなったからスマホを買い換える」というのはよくある行為だ。

iOSは最新バージョンの利用者が全体の81%であるのに対し、Androidでは6%しかいない。それだけ、「最新の機能を使える人が多く、ソフト開発が容易」というアピールだ。

 だが、そのことは「離脱」のタイミングにもなる。

 これは噂のレベルだが、アップルはOSの安定度・完成度を上げるために、機能追加に若干のブレーキを踏んだ……と言われている。ここでハードウェア基盤は変えず、OSの挙動をより効率化して動作速度を上げるというのは、その噂にも通じる。ユーザーとしては、OSのアップデートをいやがる理由がひとつ減る、ということになる。もちろん、アップルの主張通り、「動作が軽くなる」のであれば、ということが前提だが。

その2:AR基盤が強化される

 今回、もっとも「絵面的に派手」なアップデートは、AR関連の機能強化だろう。iOS11から搭載された「ARKit」が「ARKit 2」になり、機能が強化された。

 写真は、基調講演で公開されたレゴが開発中のアプリ(公開は年末を予定)だ。机の上に置かれた、レゴで作ったビルを認識し、周囲に道路や植え込みをCGで描いている。さらには、そのビルから発生する「火災」、「屋上に逃げた人」も、そこにあるレゴのビルに重ねて表示している。これは、ARKitが「平面」か「垂直面」だけを認識するものから、ビルのような「立体」も認識するものに変わったために実現できたものだ。

レゴがARKit 2のために開発したアプリ。レゴで作った建物を認識に、そこに色々なCGを重ねられる。複数のiOS機器で同時に使えるのが特徴

 写真の撮影は許可されなかったが、筆者は短時間だが、このアプリを実際に試すことができた。実際に触ってみるとその完成度はものすごい。特に面白いのは、「本物のレゴにCGを重ねる場面」と、「レゴの位置に同じCGを重ねてしまって、現実をCGで覆い隠す場面」が同時に出てくることだ。だから、「レゴのビルから火の手が出る」という表現も出来るし、「そのビルを上からのぞくと、天井を素通りし、中の人々を覗く」こともできるようになっている。速度・精度両面での改善があるからこそ、これだけ大規模なARアプリが作れているのだろう。

 また今回から、周囲の映像から自動的に、機械学習を使って「環境マッピング」のデータを作り出し、映像のレンダリングに反映することができる。例えば、これまでは「現実の世界にあるものの姿を、仮想の世界にある物体に反射させる」ことはできなかったが、ARKit 2で、ほぼ自動・リアルタイムでの環境マッピングができるようになることで、「現実の世界にあるものが周囲にあるものの姿を仮想世界の物体に写り込ませる」ことが可能になる。だから現実とCGの差が縮まり、アプリの品質向上につながる。

 より重要なのは、先ほどの2つのゲームアプリにおいて、iPadを使ってプレイしている人が「2人」いることだ。要は、実際には存在しない「仮想のもの」を、見ている人同士で共有できるようになったのだ。

 もう一つの例を挙げよう。こちらは、アップルが開発した「Swift Shot」というサンプルアプリだ。本当はなにもないテーブルの上に積み木が現れ、そこでボールをとばしあって戦える。動画は、それを「第三の人物」がiPadを介して見ているものを記録したものだ。要はこの3人が、同じ仮想空間を共有しているわけである。

アップルが開発したARKit 2のデモアプリ「Swift Shot」。テーブルの上に無数の「ARでしか見えない積み木」が登場、そこを挟んでパチンコで弾を撃ち合う
ARkit v2。Swift Shotプレイ中の動画

 ARKit 2 では「World Map」と呼ばれる空間を記録可能になっている。World Mapは完全な3D空間構造を記録するわけではなく、物体の位置と、それを配置するために必要な特徴点を記録するものだ。だが、それでも、自分が置いた物体の場所・内容を記録しておき、後々呼び出したり、他人と仮想空間を共有するには十分で、先ほど挙げたようなアプリを作ることができる。

 World Mapはクラウドを介して共有もできるが、仮想空間とそこに置かれているオブジェクトの情報をやりとりするため、それなりに高速かつ遅延の小さなネットワークが望ましい。そのため、現状は、Wi-FiやBluetoothを使ったローカルでの共有となっている。

 比較的複雑な物体を把握したり、空間を共有できたりすれば、もちろんより複雑なARアプリが作れる。それはゲームにも有効だが、むしろビジネス活用を加速する上で重要とも言える。空間が共有できれば、会議アプリやプレゼンアプリのような「複数の人で同時になにかを見る」アプリの開発が容易になる。美術館などのパブリックスペース向けのARアプリ開発にもプラスだ。

 AR向けのフレームワークを作っている企業は、ARKit 2が実現している要素もある。独自に開発し、自社のARアプリ内で空間共有を実現した例もある。だが、「どのデベロッパーも使える基本的な機能」が高度化していくことには大きな意味がある。アップルは、今後より「本格的なAR環境」を準備中で、その地ならしを行っているのだろう……と予測できる。

 なお、基盤整備という意味では、今回アップルが発表した「usdz」というデータフォーマットが興味深い。Pixarと共同で開発したオープンソース形式のデータフォーマットで、3Dモデルやシーンデータを格納するのに使う。Pixarが映画などでシーンデータを作るための使っている「usd」という形式がベースになっており、こちらもオープンソースになっている。

 usdzでモデル・シーンデータを作り、ウェブやアプリの中に「立体のデータや風景」をダウンロードするボタンを埋め込むと、特別なアプリを用意しなくても、そのモデルを「ARで見る」ことが可能になった。iOSの中では標準的に扱えるため、ウェブ上はもちろん、メールで添付してもいいし、「ファイル」アプリから開くことも可能だ。

 写真は、ギターメーカーであるフェンダーのウェブストアの例だ。ウェブ上でギターの色合いをカスタマイズし、物体データをダウンロードすると、iPhoneの画面上では、そのギターが実際の大きさで、部屋の中に現れる。「ARはショッピングで有望」と言われてきたが、いまだ実践例は少ない。ARのためにストアアプリを作るのは大変だからだ。だがデータ形式を使えば、専用アプリを作る必要が減る。

フェンダーのECサイトでの活用例。ギターのペイントなどをカスタムしたあと、その色・その形のギターの3Dデータをダウンロードし、部屋の中に「実物大」で表示できる

その3:「アバター」でビデオ会議もできる

 今回、筆者が面白いと感じたのが、アップルのビデオ通話機能「FaceTime」の拡張だ。これまでは1対1での通話にのみ対応していたが、iOS12を含むアップルの新OSを搭載した機器では、「32人」での同時通話に対応した「Group FaceTime」に進化する。

 Group FaceTimeでは、話している人が四角い窓の形で複数並ぶ。その大きさや並びは、自分が重要と思っている順でいい。だが一方で、話している人は自動的に大きくなるようになっている。この形は非常にわかりやすく、美しい。

最大32人で話せるようになった「Group FaceTime」。今しゃべっている人の顔が自動的に大きくなる仕組みで、多人数通話でもわかりやすい構造になっている

 そして、Group FaceTimeにはさらに興味深い進化があった。それは「自分の顔をアバターのものに入れ替える」機能が付いたことだ。ただし、iPhone X限定だが。

 iPhone Xには、顔認証機能を使って表情を読み取り、自分の表情をCGキャラクターに反映させる「アニ文字」という機能がある。iOS12では、アニ文字を出来合いのキャラクターではなく、自分で作ったアバターで行なう「ミー文字」という機能が追加される。これは、すでにサムスンがGalaxy S9で「AR Emoji」として追加している機能に近く、自分に似せたアバターを作るという意味では、任天堂の「Mii」やマイクロソフトがXbox Liveで採用しているアバター機能にも似ている。

 特にiOS12では、顔認識に使っているARKitが進化したことにより、「舌」を出すしぐさを認識できるようになった他、視線の方向をよりしっかりと認識できて、アニ文字・ミー文字がより「目力のある」表情になった。なお、ウィンクも認識可能になっている。

「ミー文字」。自分で作ったアバターのCGモデルを、画面の中で「自分の顔にかぶせる」ことが可能

 面白いのは、ここで作ったミー文字を自分が「かぶり」、Group FaceTimeのビデオ通話に参加できる、ということだ。

Group FaceTimeでミー文字を活用。白髪・メガネのミー文字アバターは、アップルのティム・クックCEOのもの。

 これは、日本で流行っている「バーチャルYouTuber」にも似た、自分をアバターに置き換えてコミュニケーションをとる要素にも似ている。iPhone Xの顔認識技術を使ったアバター操作アプリとしては、日本のデベロッパー、ViRDが開発した「パペ文字」というアプリが存在する。ミー文字でのビデオ通話は、それに似たところもある。

 こうした技術は、ARKitとは性質が異なるが、やはり一種のARと見なすことができる。机の上にCGを重ねるのか、自分の顔にCGを重ねるのかの違いだけだ。アバターはアイデンティティなので、できれば、他のアバターシステムと「アバターのモデル自体を交換する」機能が欲しい。自分が過去に作ったMiiで通話できるようになりたい、有名なキャラクターになりたい、という人もいるはずだ。

 「自分が他人に見せたい姿でビデオ通話に出る」要素は、これから必須の要素である。Group FaceTimeでのミー文字対応は、そういう世界の先駆けであり、OS標準のアプローチとして、注目されるものだ。

その4:「スマホの使いすぎ」に配慮

 iOS12の基本機能として、広く一般に注目されるだろうと思われるのは、「おやすみモード」の改良と「Screen Time」だ。これらは簡単に言えば、「スマホの使いすぎ」に配慮する機能と言える。

 スマホを見続けてしまう理由は、「常に通知が来つづけるがゆえにスマホから目が離せなくなること」「気になるアプリを見すぎること」と考えられる。だから、「通知を抑制」し、「利用に制限をかける」ことで、スマホの使いすぎを防ぎ、健全な利用関係を築ける……というのがアップルの主張である。

 そもそも今のiOSには「おやすみモード」という機能がある。これは、就寝時などに通話・通知が出るのを抑制して安眠を……という目的の機能なのだが、英語表記では「Don’t Disturb」である。ホテルでよく見るあれだ。

 本来「Don’t Disturb」は「邪魔しないで」ということだから、別に就寝時に限ったものではない。筆者もホテルの部屋で仕事に没頭する時は「Don’t Disturb」タブをドアにかける。

 この考え方で、仕事に集中する時や子供の相手をしている時など、「スマホに邪魔して欲しくない時」に使うモード……という意味合いが強くなったのが、iOS12の「おやすみモード」だ。「1時間だけ通知して欲しくない」「特定の場所にいる間通知しない」などの設定を、簡単に切り換えられるようになっている。

 この設定で重要なのは、「人は設定を元に戻すのを忘れる」ことに基づいて作られている、ということだ。筆者も経験があるが、「おやすみモード」にしたはいいものの、通知をオフにしたい時間が終わっても元に戻すのを忘れ、いつまでも通知が来ない……という経験があった。

 iOS12でのおやすみモードへの簡易切り換えは、「ある条件である間だけおやすみモードにする」という発想で作られている。1時間が経過したら、あるスケジュールの間だけ、ある場所にいる間だけ……という感じで、「設定した時のシュチュエーションから変わる」と、設定が元に戻るのだ。これは便利だ。

 ただこの機能、すでに「おやすみ」には限らないわけで、日本語の表記と英語表記で不整合が起きてしまっているので、正式版までに、日本語表記は変えるべきだろう、とは思う。

「おやすみモード」で通知を出さない時間を、「一時間」「夜の間」「特定の場所にいるとき」「特定の時間」などで決定できる。条件にあわなくなると、自動的に設定が元に戻る

 また、通知が画面を埋め尽くさないよう、自動的に「まとまる」ようになったのも、「通知に追い立てられる」感が薄くなり、プラスだと感じる。

通知のグループ化が可能に

 新機能である「Screen Time」は、アプリの利用時間を抑制する技術だ。アプリやウェブサイトごとに、「利用者がどれだけの時間を費やしているか」を集計し、指定時間以上アプリを使わせない……ということが可能になる。これは利用者個人が自制的に使うだけでなく、子供のスマホ・タブレット利用を管理するためにも使える。

「Screen Time」。アプリの利用時間を集計し、指定時間以上アプリを使うことを防止する。子供のスマホ・タブレット利用を管理するツールとしても使える。

その5:いつもの動作をワンタッチで行なう「Shortcuts」、AIより「開発者」?

 アップルに限らず、大手ソフトウェア企業は、買収した企業の技術・機能を、自社の製品に組み込んで「新機能」にすることが少なくない。今回、iOS12の目玉機能のひとつとして生まれた「Shortcuts」も、そんな技術だ。

 我々は、日常的に同じ動作をすることが少なくない。毎回カフェで同じコーヒーを買う、毎月通販で同じ日用品を買う、朝出かけてから会社に行くまで、同じネットラジオを聞き、同じニュースサイトを読む……といった行為だ。こうした「いつも行う一連の動作」を、まとめて操作するのがShortcutsである。例えば、「会社を出たら音楽アプリを立ち上げてあるプレイリストを再生、自宅に『いまから帰る』とメッセージを送り、家の室温を一定に保つ」といった一連の動作を設定、さらにそれに「帰宅」などと名前をつけ、ワンアクションで行なえるようになっている。

「いつもやる決まった作業」を自動化する「ショートカット」。家に帰る時に行う作業などを、流れ図的につないで、iOSが自動的に、順番に処理する

 これは、2017年春にアップルが買収した「Workflow」というアプリの技術を使ったものだ。今後はそれがOS標準となり、アプリ内からより柔軟に活用できるようになった上で、音声との連携も可能になる、

 これは確かに便利そうではあるが、懸念もひとつある。人間は、自分がやっていることを手順通り再現するのが、意外なほど苦手だ。それは一種の「プログラミング」であり、行動を論理的な流れとして記述する、ちょっとした思考の訓練を必要とする。やったことのない人には、たった3つ・4つの要素であっても難解だ。ハードルが低い、とは言えない。

Shortcutsの設定画面。かなり詳しい設定ができるが、プログラミング的な思考が必要で、若干ハードルが高い

 そこでアップルは、Siriの推定能力と、アプリ開発者の協力をうまく使う。

 Siriは、iPhone・iPadが「いつ、どこで、どんなタイミングで」アプリを使ったかをおぼえている。また、カレンダーなど、アクセスできる個人情報があれば、それも利用する。そうしたことによって、「あなたはこの時間、このアプリを使うことが多いです」「電話をかけるのを忘れずに」というサジェスチョンをしてくれるようになった。これが「Siriサジェスチョン」だ。

繰り返すこと、やるべきことをSiriが教えてくれる「Siriサジェスチョン」。ここからShortcutコマンドを作ることも可能

 さらにアプリをうまく組み合わせることで、同じコーヒーを買っていると「このコーヒーをオーダーするのではないですか?」と聞いてきたりする。その時には写真のようなボタンが現れるので、これをタップして、Siriに「Shortcutコマンド」として登録すればいい。これなら、使い方は難しくない。

 もっと理想的に動かすには、アプリの力を借りる。例えばショッピングアプリで「毎月買う消耗品」を買った場合、アプリ上にある「Add to Siri」ボタンを押すことで、その一連の買い物を「Shortcut」として登録してしまうことができるのだ。こうすれば、その買い物をする時には、登録したShortcutコマンドをしゃべるだけで、買い物が完了する。基調講演では、旅行アプリで旅程を確認する操作を「Shortcutコマンド化」していた。

基調講演では旅行予約アプリから、「旅程を確認する」ためのShortcutコマンドを簡単に作る様子がデモされた

 この方法を使えば、比較的複雑な処理でも、自分でプログラミングを組むように「アプリの起動順を決める」ことなく、ワンタッチでコマンド化できる。

 ただし問題は、「理想的に働くには、アプリ側での準備が必要」ということだ。Siriと連携し、Shortcutコマンドとして使いたいであろう機能をアプリ開発者が考え、「Add to Siri」の対象として組み込んでおかないと、このような使い方はできない。

 現実問題として、今のAIはそこまで賢くない。アップルはそこで、先のための可能性を追求するよりも先に、実をとって、「Siriにすぐできること」と、アプリ開発者の努力の組み合わせ、というアプローチを採ったことになる。

その6:写真の整理にはAIを活用

 自動的な作業、という意味では一歩後退したアップルだが、写真の整理については、AIをしっかりと活用し、リニューアルを行った。

 以前からアップルは、ディープラーニングで学習したモデルを使い、端末内で画像の内容や顔を認識、写真の整理と検索に使うことができた。iOS12では、「行った場所」「参加したイベント」などを使った精度の高い検索が行えるようになっている。

iOS12の「写真」機能。AIによる画像認識やGPS情報を使い、写真に写っているものや場所、イベント名などから写真を検索できる。

 Apple Musicにもある「For You」タブが「写真」にできたのも特徴だ。これは、過去に撮った写真から「思い出」を見つけてもらう機能、という言い方もできる。今までも日付情報や場所情報を手がかりに、過去の写真を「ストーリー」化して見せる機能があったのだが、それを再整理した格好と言える。

あなたのために思い出をまとめる「For You」。写真のシェアを簡単にするための機能でもある

 この辺のアプローチは、アップルもGoogleも似たような部分がある。スマホで撮影された大量の写真をクラウド連携して保存してもらい、より長く、より深くサービスに依存してもらおう……という考え方である。ただ、Googleはクラウド経由でサービスを使わせるのに対し、アップルは画像検索も含め、ほとんどの機能を「ユーザーが持っている端末内」で行なう。これは、「データを送らないことがプライバシー保護の一環である」という、アップルの考え方を示したものだ。

その7:Apple TVがDolby Atmos対応へ、音でも「無償アップグレード」

 AV Watchらしく、AV関連の話もしっかりしておこう。今回の発表の中で、AVに関わる話はそう多くなかった。とはいえ、Apple TVの今後についての話題は、やはり大きなものだ。

 細かな機能改善については触れられなかったが、大きなトピックとして発表されたのは、Apple TV 4Kの「Dolby Atmos対応」だ。この秋に「OSの無償アップグレード」として、Dolby Atmos対応が提供される。

Apple TVは次期アップグレードにて、立体音響システムである「ドルビー・アトモス」にも対応。iTunes Storeから購入した映画は、自動的かつ無料で「Atmos対応」に変わる

 昨年アップルは、iTunes Storeで4K+HDRのコンテンツレンタルと販売を開始した。初期には対応タイトル数が少なかったものの、いまはかなりの数になった。日本でもそうなのだから、配信がより元気なアメリカではなおさらだ。

 アップルが4K+HDRでの配信に対応した際、特徴的だったのは「2Kの映像と同じ額で販売し、過去に2K版を購入した人には、4K+HDRへのアップグレードを無償で提供する」ということだった。映画業界からは反発もあっただろうが、このことはユーザーにはありがたいことだ。アップルは、Apple TV 4Kの発売以降、Apple TVの販売量が50%アップした、としている。

 今回アップルは、コンテンツのDolby Atmos対応についても、同じように「無償アップグレード」をする。歓迎すべきことだ。こうした施策を採る理由としては、顧客重視の販売方法を採ることで、「映像のライブラリを持つストア」として、iTunes Storeを選んで欲しい……という狙いがあるのだろう。

 そこで個人的な希望だが、そろそろアップルには、iTunes Storeで購入した映像コンテンツを、「アップル製品以外」で利用する方法を考えて欲しい。Androidなどにも視聴アプリを提供して欲しいし、ウェブブラウザーから視聴可能にもして欲しい。どれもAmazonやGoogleはやっていることだ。あわせて、Apple Musicのウェブクライアントも用意してくれれば、言うことはないのだが……。

その8:「トラッキング防止」でFacebookに対抗? アップルのプライバシー戦略

 ここからは少し、技術の奥に入った話をしたい。

 先ほど「その6」で画像認識でのプライバシー保護の話が出たが、今回のWWDCでは、iOSとmacOSで使われているウェブブラウザー「Safari」でのプライバシー保護について、新技術の導入と方針の説明が行われた。

 アップルのソフトウェア担当上級副社長であるクレイグ・フェデリギ氏は、基調講演で「データ会社による追跡を不可能にする」という方針を打ち出した。

アップルのソフトウェアエンジニアリング担当上級副社長、クレイグ・フェデリギ氏。iOSとmacOSに関するプレゼンテーションを担当した

 現在のウェブは、様々な方法で個人を「追跡」している。アドネットワークによる広告、記事についてのコメント欄などがそれだ。Cookieを使った手法が使われているが、それに警告を出すことで、ユーザーが判断して使えるようにする。

ウェブブラウザーの「Safari」では、自分をトラッキングするウェブサイトについて検出、警告を発する

 また「フィンガープリンティング」と呼ばれる個人追跡の手法も防止する。フィンガープリンティングは、フォントなどのブラウザ個別の設定、プラグインの利用状況から、個人を特定する仕組みである。新しいSafariでは、フォントなどのブラウザが送信する情報を全端末で共通化し、古いプラグインも無効化することで、個人と端末の特定を防ぐ。

ブラウザから得られる情報をより少なく、ユーザー固有でないものにすることで、個人をトラックする「フィンガープリント」という技術の精度を下げる

 アップルは特定の企業を名指しすることはなかったが、来場者の多くは、どの企業のことを言いたいのか、ピンときた。Facebookだ。Facebookはプライバシー保護の問題で非難されている。他の広告をベースにビジネスをする企業も、個人情報の扱いには苦慮している。それらの企業を単純に非難するものではないが、消費者の側が「どんな時にどう情報を出すのか」を理解したいと思う。個人情報のトラッキングは複雑化しており、アップルが提示した機能を使っても、多くの消費者には「わかりにくい」状態のままだと思う。しかし、機能が「ある」ことは重要だ。

 こういう方針をアップルが打ち出せるのは、アップルが広告ビジネスでなく、「モノを売る」ことで収益を得る企業であるからだ。

その9:実は大きな影響? グラフィックAPIが「Metal」標準に

 アップルは「iOS」「macOS」「watchOS」「tvOS」という4つのOSを持っている。これらでは同じ技術基盤が使われており、技術的一貫性が図られている。

 特にアップルが強調するのは、iOSとmacOS、tvOSにおいて、同じグラフィックAPIである「Metal」が使われていることだ。Metalは、アップルが利用しているSoCが使っているGPUに特化したグラフィックAPIで、特化しているがゆえにオーバーヘッドが少ないのが特徴である。

 今回、アップルは各OSにおいて、「グラフィックAPIとしてはMetalを使うのが望ましく、他のAPIは推奨しない」という形を打ち出した。

 このことは、デベロッパーに大きな影響を与える。グラフィックAPIとしては、機器を問わずに使える「OpenGL」が広く使われている。iOS向けのアプリでも、Androidとの相互開発を楽にする関係から、グラフィックAPIにOpenGLを使っている例は多い。しかし、今後は「Metalが推奨」となると、「iOS向けにはアプリを作り変える」必然性が高くなる。

 現状、この方針は「他が非推奨、Metalが推奨」というレベルであり、いきなりOpenGLで作られたアプリが動かなくなるわけではない。しかし、この手の方針が打ち出されると、数年後には「非推奨」が「サポート終了」になる可能性もある。デベロッパーとしては、ちょっと不安なところだろう。

その10:2019年、iOSアプリがMacで動くようになる

 macOSの次期バージョンは、カリフォルニアとネバダの境にあるモハベ砂漠から「macOS Mojave(モハベ)」と命名された。

 正直、Mojaveの進化の幅は、iOSよりも小さい。最大の進化点が、メニューなどの項目を暗く描く「ダークモード」である……ということでおわかりいただけるだろう。

次期macOSの名前は、カリフォルニア州とネバダ州にまたがる砂漠地帯である「Mojave(モハベ)」に
macOS Mojaveには、表示を暗くする「ダークモード」が搭載になった

 だが、Mojaveには、そっと「次世代のアップルの戦略」を占う上で、大きなアプリが隠されていた。音声を録音する「ボイスレコーダー」やニュース記事を見る「ニュース」などのアプリである。

iOSから「ボイスレコーダー」と「News(日本未対応)」が追加に。機能的には特筆すべきものではないが、実は中身に秘密があった

 これらのアプリは、iOSでもまったく同じ機能のものがある。それだけでない。実は、そもそも「iOSに作られたアプリを、macOSでも動かしている」のである。

 そういうと、「いよいよアップルも、macOSとiOSを統合するのか」という話に聞こえる。だがここについては、アップル自身が、画面にデカデカと「No」と映し出し、否定した。

 彼らが狙っているのは、デベロッパー向けに、「iOSのアプリをmacOSでも動かすタメの仕組み」を提供することである。その計画は2019年後半に予定されており、Mojaveよりも先のバージョンでの追加になる。そのため今回は「プレビュー」という扱いだった。

 現状、Macにはタッチパネルがなく、キーボードやタッチパッドで操作することを軸にした操作になっている。macOSはそういう環境に特化した作りであり、だからこそ操作効率がいい……というのがアップルの見解だ。

 そこで今後は、ではどうするのか? iOSのアプリ側で「タッチパネルがない」「マルチウインドウである」「サイズが自由に縮小可能」というMac上のアプリの操作体系に合わせ、iOSのアプリを簡単な変更だけで使えるようにする仕組みを用意するのだ。既存のiOSアプリがそのまま動くのではなく、開発者の側で若干の修正作業が必須である。また、Mac用アプリをiOSで使えるようにするわけではない。

2019年後半、Macの上でiOSアプリを動かす仕組みが登場。iOSアプリに「Mac上で動かすための仕組み」を追加することで、macOSでは「Mac用アプリ」と「iOS用アプリ」の両方が動くようになる

 このことから、iOSを使っている人には大きな影響はない施策である。しかし、Macユーザーには、使える「アプリが増える」結果になる。アプリ開発者としても、MacとiOSでアプリを作り分ける必要が減り、ビジネスチャンスが増える。

 アップルは、MacをMacのまま残したいと思っている。だが、Mac向けアプリの開発効率を上げ、最終的には「CPUの種類に依存しない」ものにMacを変えていきたい……と思っているのではないだろうか。グラフィックAPIをMetalに統一するのも、そのための布石に思える。

 2019年の後半、Macの上で動くiOSアプリが登場するだろう。しかし、それからすぐ、Mac自体のあり方も大きく変化するのではないか。

 筆者には、そう思えてならない。

西田 宗千佳

1971年福井県生まれ。フリージャーナリスト。得意ジャンルは、パソコン・デジタルAV・家電、そしてネットワーク関連など「電気かデータが流れるもの全般」。主に、取材記事と個人向け解説記事を担当。朝日新聞、読売新聞、日本経済新聞、週刊朝日、AERA、週刊東洋経済、GetNavi、デジモノステーションなどに寄稿する他、テレビ番組・雑誌などの監修も手がける。
 近著に、「顧客を売り場へ直送する」「漂流するソニーのDNAプレイステーションで世界と戦った男たち」(講談社)、「電子書籍革命の真実未来の本 本のミライ」(エンターブレイン)、「ソニーとアップル」(朝日新聞出版)、「スマートテレビ」(KADOKAWA)などがある。
 メールマガジン「小寺・西田の『金曜ランチビュッフェ』」を小寺信良氏と共同で配信中。 Twitterは@mnishi41