西田宗千佳のRandomTracking
第510回
動画撮影が超進化、映画は24p再生。実機で見る「iPhone 13」の魅力
2021年9月24日 14:23
iPhone 13および13 Proの製品レビューをお届けする。
今回の製品の面白さは、やはり「カメラ」だ。iPhoneなどスマホの新製品の競争軸がカメラになってもう久しいが、iPhone 13シリーズは「動画」という意味で色々興味深い。
今回はこの製品について「動画軸」で色々チェックしてみた。
iPhone 13/13 Proは何が進化した?
まずはざっと、iPhone 12シリーズとの変化点や、iPhone 13と「Pro」の違いなどをおさらいしておこう。
ラインナップが「mini」「無印(数字のみ)」「Pro」「Pro Max」なのは、昨年と同じ。5G対応(ミリ波には未対応)である点も変わらない。付属品も同じだ。ただし、環境対策のためか、ビニールのシュリンクラップはなくなり、紙で箱の端が止められている構造になった。
違う点は主に5つある。
もちろん、プロセッサーは違う。「A14 Bionic」から「A15 Bionic」になり速度アップした。結論から言えば、13シリーズ全体が「iPad Pro 11インチ・2020年モデル」並みの性能になった。GPUが5コアであるiPhone 13 Proの場合、iPhone 12 Pro Maxから、CPUで16%以上、GPUでは57%も性能アップしている。特にGPUの性能向上はめざましい。
ストレージは、iPhone 13が「128GBから」になり、iPhone 12の「64GBから」より増えた。そして、13 Proは「最高1TBまで」となっている。この点は、どちらかといえばiPhone 13のコストパフォーマンス・アップが重要な点かと思う。
バッテリー動作時間は全体的に増えている。ただ、テストに長い時間がとれていないこともあり、カタログスペックが本当か、までは確認ができなかった。どの機種でも、同じクラスのiPhone 12シリーズに対して、最低でも1.5時間から2時間は伸びている。
特にiPhone 13 Pro Maxは、「動画視聴時間」のスペックが12 Pro Maxの「20時間」から「28時間」へと劇的に伸びているのが目を惹く。
映画は「24p再生」、実は芸の細かい13 Proの新ディスプレイ
動画視聴時間の増加は、3つ目の大きな進化点である「ディスプレイの進化」にも関わっている。
特にProで視聴可能時間が伸びているのは、「13 Proシリーズで10Hzから120Hzの可変リフレッシュレート型ディスプレイが採用された」ことと関係していそうだ。
iPhone 13/miniのディスプレイは、輝度こそ向上したが12時代のものとそこまで大きくは変わっていない。だが、iPhone 13 Pro/Pro Maxは、ディスプレイパネル自体が大きく進化した。アップルが「ProMotionテクノロジー」と呼ぶものだが、簡単に言えば、処理負荷に応じて毎秒10コマから120コマまで、描画コマ数を変えつつ動作するわけだ。
他のハイエンドスマホやiPad Proでも採用が進んでいるが、毎秒120Hz動作は、表示のなめらかさ・レスポンスの快適さにつながる。以下の動画は、iPhone 13と13 Proでのスクロールの様子を毎秒240コマのスロー撮影で確認したものだ。13 Proの方がなめらかになっているのがわかるだろう。
単に120Hzでディスプレイを駆動すると消費電力の増大を招く。そこでアップルは、最小毎秒10コマ(10Hz)から120コマ(120Hz)まで、必要な動作・操作に合わせてリフレッシュレートを変え、消費電力を最適化する技術を導入している。
実はこの技術、アプリ側からリフレッシュレートの調節も可能になっているようだ。基本的にはOSとデバイスが連携して自動調整するが、アプリ側から指定してコマ数を決めることもできる。
例えば動画再生時には、動画のコマ数が毎秒24コマである映画を再生した場合には、iPhone 13 Proでは「24コマ」で再生し、ディスプレイも「24Hz駆動」になる。30コマなら「30Hz駆動」、60コマなら「60Hz駆動」だ。結果として描画コマ数を減らせることになり、動画再生時間が伸びているようだ。
一時テレビなどの映像機器でも話題になったが、より制作者の意図にあった再生ができるようになっているわけだ。輝度の突き上げも強いHDR対応の有機ELなので、映画視聴のクオリティはなかなかいい。
とはいえ、だ。
ディスプレイサイズが小さいと、コマ数の違いによる感覚の変化などは正直体感しにくい。だから、「24Hz再生」効果が絶大……とは言えないだろう。しかし少なくとも、その結果として、「Proを選ぶと動画視聴時間が長くなる」ことだけは間違いない。
カメラは「明るく」進化したが……
4つ目の大きな変化は「カメラ」だ。毎年のように進化しているが、今年も同様である。
写真で比べるとわかるが、特にProはカメラモジュール自体のサイズも大型化している。その分本体から飛び出ている量も増えているので、「12時代のケースを使いまわしたい」人は注意が必要だ。そもそもiPhone 13の場合、カメラの位置が大きく変わってしまったため、ケースの使い回しはできない。
どこが変わったのか? 目立つのは「超広角」が明るくなったことだ。以下の撮影サンプルをご覧いただきたい。どれもあえて「ナイトモード」は使わず撮影しているが、iPhone 12 Pro Maxに比べ、かなり明るい。
なお、全ての写真のHEIF形式データは以下からダウンロードしてほしい。
撮影サンプル元データ:HEIC.zip(52.24MB)
Proシリーズの搭載カメラは、iPhone 12 ProとPro Maxでは「望遠」側のスペックが違っていたものの、iPhone 13 ProとPro Maxは全く同じになった。そのため、どちらも「光学3倍」になっている。それだけ「寄れる」わけだ。
ちょっと残念だったのは、このところのiPhoneのカメラで目立っていた「レンズ内ゴースト」がまだ見られたことだ。前掲のサンプルを見ていただければお分かりのように、12 Pro Maxよりは少なくなったが、iPhone 13でもまだ派手目に出る時がある。「iOSのアップデートで改善された」との噂もあったが、実際にはそうでもなかったようだ。次のiPhoneに向け、この点はアップルに努力してほしい部分だと感じる。
マクロのためにProを買え!
13 Proシリーズの撮影機能として特にインパクトがあったのが「マクロ」だ。一言で言って、「マクロが欲しい、寄って撮影したいならProを選べ」と断言していい性能である。
とにかく撮影サンプルをご覧いただきたい。同じ距離で撮影したiPhone 13による写真とともに掲載しているが、13 Proはしっかりと「寄れている」のがわかる。取材などで近づいて小さなものを撮ることが多い筆者としては、とにかくうれしい進化だ。スペック上2cmまでの接写が可能となっているが、「iPhoneが被写体に触れる手前」くらいまで近づける、という感覚で撮影できる。
ポイントは「特殊なマクロ撮影モードがあるわけではない」ということだ。普段通り、単に物体に近づいて静止画や動画を撮ればいい。マクロモードが必要な距離までiPhoneが被写体に近づくと、カメラを切り替えてマクロモードに入る。以下は撮影中の様子を動画でキャプチャしたものだが、自動的にモードが切り替わる様が確認できて面白い。
「シネマティックモードは」不完全ではあるが大きな一歩だ
最後の変化点、5つ目が「シネマティックモード」の搭載だ。今回最大の目玉としてアピールされているので、すでにご存知の方も多いと思う。
静止画における「ポートレートモード」では、カメラの視差や機械学習に推定を組み合わせることで、写っている空間の「深度(奥行き)情報」を記録し、それを使って背景などのボケ味を演出していた。その機能を静止画から動画へと持ち込んだのが「シネマティックモード」である。発想はシンプルなのだが、効果はなかなか面白い。サンプルをまとめた動画を作ったのでまずはそちらをご覧いただきたい。冒頭は、iPhone 12 Pro Maxで撮った「シネマティックモードでない」映像だが、そこからあとは全て、iPhone 13と13 Proのシネマティックモードで撮影した映像である。
どうだろう? 実はこの機能、リアのカメラだけでなく、フロントのカメラでも使える。いわゆる「自撮り動画」も、背景ボケのあるものにしてくれるのだ。
もちろん、完璧ではない。
輪郭処理はまだ不自然で、人間の髪の部分やグラスの縁などはヌケが甘い。ボケ味にも画一的なところがあり、ヌケの甘さと合わせて、多少書き割り感が出る。人の動きや中央に入った被写体に合わせてフォーカスを自動で変えてくれるが、その判定も速すぎたり位置がズレていたりして、違和感を感じることもある。
現状のシネマティックモードは暗いところに弱いようで、「もう少し明るさが必要です」と言われることもあった。
また、これは1080p・30Hz撮影であるが故の課題だが、信号や照明などの明滅が残ってしまい、目立って見える。
課題はいくらでも指摘できるのだが、それは、最初にポートレートモードが実装された時と同じではある。いつかはソフトなどで改善していくものなのだ。
流れに合わせてフォーカスを変えていくことは、動画撮影の基本的なテクニックではある。しかし、フォーカスを変える撮影技法そのものも、適切なボケ味が出るようにカメラとレンズのセッティングを合わせることも、「ちゃんとカメラと撮影技法を知っている人」だからできることなのだ。それらを身につけている人なら、もっと質のいい動画は撮れる。
だが、カメラと撮影技法のことを理解していない人は、学ばないと使えない。だが、iPhone 13のシネマティックモードなら、そうしたことを学んでいない人でも、手持ちのiPhoneだけですぐに実践できるのだ。Vlog向けのカメラが「ボケ味」を強調するのは、それだけニーズと可能性が高いからでもある。興味が湧いたならば、iPhoneでの撮影からさらにより深い世界に入ってもらってもいいではないか。「日常の撮影を変えてしまう可能性がある」ことが、シネマティックモードの最も大きな変化だ。
ある意味、「動画でボケ味をつけるモードをシネマティックモードと名付けた」ことが、アップルの最大の発明ではないか。「シネマティックな動画とはなにか」を考え始めると定義はなかなか深い話になってくるのだが、それはともかくとして、今後、ああいう機能は「シネマティックモード」と呼ばれることになるのだろう。
編集や閲覧にはまだまだ課題も
もちろん、品質以外に留意すべき点は多々ある。
一番気になったのは、「スマホの画面では意外と映えない」ことだ。もちろんわかるが、10インチ以上の画面で見た時の面白さに比べるとパンチが弱い。スマホで見ることが多いスマホで撮影された動画が、スマホ以外の大画面デバイスで映える……というのは少し皮肉なことかもしれない。
次に「フォーカス点編集が面倒」ということ。
自動で人や被写体を認識してフォーカスを合わせていってくれるが、やはり完璧ではなく、あとから自分で修正した方がいい。特に複数人が出てくる動画では、コロコロとフォーカスが変わりすぎて見づらくもなる。
iOSの「写真」アプリで編集できるのだが、画面が小さいとやはり使いづらい。また、フォーカスの変更点へジャンプする機能がないのも不便だ。
「写真」アプリ以外に、現状では、iOS版・iPadOS版のiMovieはシネマティックモードの動画の「フォーカス変更」編集に対応している。前出の動画も、基本的な部分(テロップなどの処理を除く)はiMovieを使っている。
一方、あくまで「現状」の問題だが、シネマティックモードの深度情報を持った動画は、今のところ「写真」「iMovie」という、アップルの2つのアプリでしか直接編集ができない。他の動画編集アプリでは単なる「1080p・30HzのHDR動画」になってしまう。
動画に深度情報がついた形で扱うには、iCloudを使って「写真」アプリを使い自分で同期するか、AirDropを使って転送するのが基本。AirDropで転送する場合にも、以下の要領で「すべての写真データ」をオンにする必要がある。
AirDropで誰かに動画を送る場合には「すべての写真データ」をオンにしないと、シネマティックモードの深度情報がなくなり、フォーカスなどの再編集はできなくなる。
深度情報のついた動画は色々と使い道が多そうなので、今後活用が進むことを期待したい。
アップルは「自社デバイス内だけで使える情報」を、iPhoneなどで撮影した写真・動画に埋め込むことが多い。シネマティックモードの動画だけでなくHDR撮影した写真・動画なども、ミニLED搭載のiPad Proや有機EL搭載のiPhoneでは、特別に「輝度を突き上げる表示」に変わる。そのための情報を裏で持っているから、そういうことができるのだ。
これらのデータはアップルのデバイスやアプリ内でのみ使われることが多いが、それはもったいない。もっと広く情報を公開し、「どうすればいろんなデバイスで価値を高められるか」を考えてほしいとは思う。特にコンシューマには、その情報が降りてきていない。撮影したデータの価値を最大限に活かせていないのは、ちょっともったいないではないか。