トピック

アバター2はなぜ48コマなのか。HFR映画がもたらす視覚効果とリアリティ

『アバター:ウェイ・オブ・ウォーター』
(C) 2022 20th Century Studios. All Rights Reserved.

16日に日米同時公開される『アバター:ウェイ・オブ・ウォーター』では、ハイフレームレート(HFR)+HDR+4K+3Dという上映が試みられる(劇場の上映システムでフォーマットは異なる)。HDRや4Kはすっかり定着しており、特に説明の必要はないだろうが、HFRはまだまだ普及には遠いのが現状だ。

そこでこの記事では、改めてHFRについて考えてみたいと思う。

映画『アバター:ウェイ・オブ・ウォーター』本予告編【異次元の”没入型”映像体験】12月16日(金)劇場公開

映画のフレームレートはどう決められたか

リュミエール兄弟が1895年にシネマトグラフを開発した時、滑らかな動画像を鑑賞するのに最低必要なフレーム数を「16fps」と割り出した。つまり毎秒16枚の連続した画像を一定のタイミングで表示すれば、動く映像として感じられる、ということである。

その理由として心理学者のマックス・ヴェルトハイマーは、1912年に“仮現運動”(Apparent Movement)という説を提唱している。例えば、少し離れた2つの点が交互に点滅を繰り返すと、あたかも1つの点が動いているように感じられる。映画の場合は、静止画が短時間で連続的に提示されることで、被写体が運動しているように見えるわけだ。

この作用は、大脳の側頭葉中間部にある「MT野」(第5次視覚野、あるいはV5とも表記)の持つ機能と考えられている。それが証拠に、この部位を脳卒中や事故などで破損してしまうと、現実世界ですら運動や動きの方向、スピードなどの知覚が感じられなくなる。

フリッカーが多いと、長時間の鑑賞には耐えられない

だが、単純に16枚の連続した画像を表示しただけでは、滑らかな動画像にはならない。

“臨界融合周波数”(Critical Fusion Frequency:CFF)というものがあって、「点滅を感知できなくなる限界の周波数」を意味する。つまりこのCFF以下だと、チカチカするフリッカーが邪魔になって、長時間の鑑賞には耐えられないのだ。CFFは鑑賞者の体調や画面の明るさによって変化する性質があるため、おおむね30Hzから60Hzの間としている文献が多い。

リュミエールのシネマトグラフでは、カメラとプロジェクターが兼用だったため、半円形の2枚の板を重ねて機械的に回転させる撮影用のロータリーシャッターが用いられていた。そのため開口部は、パックマンのように1箇所だけであり、映写画像には激しいフリッカーがあった。

その後、プロジェクター専用にシャッター羽根が改良され、2つの開口部を持つダブルフラッシュや、開口部3つのトリプルフラッシュ方式が考案される。トリプルフラッシュであれば、点滅周波数は48Hzになるわけで、フリッカーが抑制できる。

24fpsはどのように決められたか?

このようにして、映画の標準的フレームレートは“ほぼ16fps”となり、1920年代の中ごろまでこの数が使われてきた。厳密に16fpsではなかった理由は、カメラマンたちが撮影時に露光調整をしたりアクションを誇張するために、オーバークランクやアンダークランクの手法を、頻繁に使用していたことにある。また劇場主たちも、映写速度を上げて上映回数を水増しし、集客率を上げていた。

だが、AT&Tの製造部門であるウエスタン・エレクトリック社のエンジニアで、映写機と蓄音機を同期運転させるサウンド・オン・ディスク方式のトーキーシステムを研究していたスタンリー・ワトキンスは、映写速度の厳密な規格化が必要だと感じた。映写速度が一定でないと、サウンドが映像とズレてしまうためだ。

そこでワトキンスは、従来の1.5倍のフレーム数となる24fpsを基準値(※1)に定め、プロジェクターのシャッター羽根はダブルフラッシュとし、点滅周波数を48Hzとした。24fpsは、フィルムのサウンドトラックに音声信号を記録する、サウンド・オン・フィルム方式のトーキーシステムでも、そのまま採用され、デジタルシネマとなった現在でも継承されている。

35mmフィルム・プロジェクターの構造
「Ushio Europe」のホームページより

※1:24fpsは35mmだけでなく、16mm映画にも採用された。ちなみに18fpsと24fpsの切り替えができる8mmフィルムの映写機の場合、18fpsを基準としてトリプルフラッシュで54Hzの点滅を行なっていた。

適切なフレームレートはいくつか?

このように24fpsというフレームレートは、トーキーのために規格化されたものだ。そのため、視覚的に適切な数値かどうかは、ほとんど考慮されてこなかった。だが、24fpsを見直す試みがなかったわけではない。

例えば、1952年に登場した“シネラマ”(Cinerama)は、35mmフィルムのサイズを、通常の4パーフォレーション(以下P、※2)から6Pに拡大し、3台の映写機を連動させて、アスペクト比1:2.75で146度のカーブドスクリーンに上映するというシステムだったが、フレームレートは26fpsだった。

シネラマ専用カメラ。背後にフィルムマガジンが3つある。2002年9月30日にロサンゼルスのパシフィックシアターズ・シネラマドームのロビーで筆者撮影。この日はシネラマ公開50周年記念日で、『これがシネラマだ』が再上映されていた

また、シネラマ第1作『これがシネラマだ』(1952)の製作総指揮を務めていたマイケル・トッドは、1本の65mm 5Pフィルムで撮影し、上映時はサウンドトラックの分だけ横に拡げた70mm 5Pにプリントする、アスペクト比1:2.1の“Todd-AO”を1955年に開発した。

パシフィックシアターズ・シネラマドームのロビーに展示されていたフィルムのサンプル。左端の4本の35mmフィルムがシネラマ(茶色のものは6chの音声記録用)、中央がTodd-AO、右端が35mmシネマスコープ

このシステムでは初期に30fpsを採用し、『オクラホマ!』(1955)や『八十日間世界一周』(1956)に用いられた。しかし、20世紀フォックス映画が『南太平洋』(1958)の製作に出資した際、通常の映画との互換性を考慮して24fpsへと変更させてしまった。

※2:パーフォレーションとは、フィルムのサイドにある送り穴のこと。この数が多いほどフィルム面積が広くなり、解像度も増す。

24fpsの問題点

だが実際、24fpsは様々な問題を抱えている。上で述べたように、撮影用のロータリーシャッターは半円形の2枚の板を重ねたものだ。なぜ2枚なのかと言うと、開口部の角度(シャッター開角度と呼ばれる)によって、フィルムに届く光量を調整できるからだ。

シャッター開角度を狭くすれば光量も少なくなるが、(スチルカメラのシャッタースピードを速くしたように)動く被写体もシャープに撮れる。しかしこれを映写して見た場合、速く動く腕などが複数本に見えるストロビング現象が発生したり、フィルムジャダーと呼ばれるギクシャクした動きが生じてしまう。

逆にシャッター開角度を広くすれば(35mmのムービーカメラでは、最大180度以下(※3))、暗い被写体にも対応でき、動きは滑らかになるものの、今度はモーション・ブラーというブレが目立つようになり、画面のシャープさが失われてしまう。

デジタルシネマカメラでは、(ソニー「CineAlta F65RS」のように、ロータリーシャッターを搭載した製品を除けば)一般的に電子シャッター(グローバルシャッターやローリングシャッター)を用いているため、最大で360度近い開角度が得られる。だがこれを全開近く開いてしまうと、やはりモーション・ブラーで動く被写体が非常に不鮮明になる。つまり、フィルムと同じ問題を抱えているのだ。

ソニー「CineAlta F65RS」(生産完了)

※3:8mmカメラには200~230度まで開くXLタイプという製品があったし、16mmミッチェルは235度まで開いた。

ダグラス・トランブルとショースキャン

そこで、人の目に最適と思われるフレームレートを初めて厳密に測定したのが、『2001年宇宙の旅』(1968)や『未知との遭遇』(1977)の特撮スーパーバイザーとして有名なダグラス・トランブルだった。

彼は1975年に、次世代の映画システムの開発を目的とした会社「フューチャー・ゼネラル・コーポレーション」(以下FGC)の設立をパラマウントに働きかける。

同社は、映画からフリッカーを追放するというテーマを選ぶ。そして2台の映写器を用い、同じフィルムのタイミングをわずかにズラして同一スクリーンに映写し、フレーム間が暗くなる時間を無くすという実験を行なう。しかしまったく成果は上がらず、9カ月間に渡った実験は暗礁に乗り上げる。

そんな時トランブルは、『2001年宇宙の旅』でスタンリー・キューブリック監督がしていたことを思い出す。キューブリックは、200fpsで高速撮影されたフィルムを、やはり200fpsで映写可能な特殊ビュワーでチェックしていたのだ。それを見ていたトランブルは、その映像が非常に鮮明だったことを覚えていた。そしてこのことから、「24fpsという映画のフレームレートは、はたして適切な値なのか」を再考する研究が始まる。

『2001年宇宙の旅』
(C)Turner Entertainment Company

そして1974年に、撮影速度を24、36、48、60、72fpsと変えたフィルムを用意し、24fpsの映写器と比較しながら上映テストが行なわれた。

実験は、ロサンゼルスのポモナにある学校に研究所が用意され、5ドルで雇われた60人のUCLAの学生が被験者になり、脳波、心電図、筋電図、皮膚反応などが神経生理学者によって測定される。この結果、24から60fpsまでの間で反応が5倍に増加し、60fpsと72fpsでは大きな差が出なかった。

また60fpsの画面は、フリッカー、フィルムジャダー、ストロビング、モーション・ブラーなどが解消され、高い彩度やコントラストが見出された。彼らはこの結果を元にして、65/70mm 5パーフォレーション・フィルムを60fpsで撮影・映写するシステムを開発し、これを“ショースキャン(SHOWSCAN)”と名付けた。

ショースキャンの実用化

トランブルは、ショースキャンを劇映画に用いるプランを積極的に働きかけるものの、専用プロジェクターを必要とするこの方式を受け入れる映画会社は現れなかった。

だが、フューチャー・ゼネラル・コーポレーションでは、もう1つの映像システム「シネライド」を1975年に開発していた。これは、フライトシミュレーターなどに使用されるモーションベースに、ショースキャンの映写機を組み合わせるという、シミュレーション・ライド・システムだった。そして1983年に、カナダ・トロントのCNタワー内に設けられたアミューズメント施設「ツアー・オブ・ザ・ユニバース」の映像アトラクションに採用される。

シミュレーション・ライド・システム特許(US4066256)
「ツアー・オブ・ザ・ユニバース」のパンフレット(筆者所有)

トランブルは、パラマウントと手を切ってFGCを閉鎖。1985年に、ショースキャンのビジネス化に徹するため、「ショースキャン・フィルム・コーポレーション」を設立する。

この会社では、「科学万博‐つくば'85」の「東芝館」で上映されたSF短編『レッツゴー! パル』(監督:ダグラス・トランブル)や、バンクーバーで1986年に開催された交通博覧会・ブリティッシュ・コロンビア州館の『Discovery』(監督:ロブ・ターナー)、同じく「カナダ・パビリオン」で上映された『Mobility/Déplacements』(監督:ロジャー・ハート)といったショースキャン作品が制作された。

科学万博‐つくば’85「東芝館」のパンフレット(筆者所有)

筆者が初めて見たショースキャン作品が『レッツゴー! パル』だったが、ミニチュアに塗られた塗料の刷毛跡が目立ってしまい、興醒めした覚えがある。また1992年に、東京・北の丸公園の科学技術館に設けられたショースキャン・シアターで鑑賞したドキュメンタリー作品においても、小川のせせらぎが実にリアルだったのに驚いたが、同時にハイビジョンのプロジェクター映写に非常に似ているという印象を受けた。

テレビ放送におけるフレームレート

そもそも、テレビ放送におけるフレームレートは、どのようにして決められていったのだろうか。

まず英国のBBCが1936年に行なったテレビの試験放送では、最初にジョン・ロジー・ベアードが設立したベアード・テレビジョン社による方式がテストされた。これは、同社に技術を提供したフィロ・テイラー・ファーンズワースが開発した、撮像管イメージ・ディセクターを用いるもので、240本の走査線を24fpsで上から順次走査する方式だった。

一方ライバルとなったのが、マルコーニEMI方式で、これはRCA社のウラジーミル・K・ツヴォルキンが開発した撮像管アイコノスコープを用いる、走査線405本、25fpsのシステムだった。結局BBCは、1937年にマルコーニEMI方式を正式採用する。

だが、受像機側に用いられたブラウン管は、画面下部を走査するころには画面上部が暗くなり、フリッカーが発生してしまう。そこで50fpsが検討されたが、これを実現させた場合、膨大な周波数資源が浪費されてしまう。そこで1フレームを2つのフィールドに分け、第1フィールドでは1/50秒の間に奇数本目の走査線を、第2フィールドでは偶数本目の走査線を描画して、1/25秒で1枚のフレームを合成する、インターレース走査方式が採用された。

米国では、1940年にNTSC(全米テレビジョン放送方式標準化委員会)が総走査線525本/有効走査線485本で、インターレース方式の60フィールド(以下60i、※4)で決定。1941年にFCC(連邦通信委員会)が、これを白黒テレビの標準方式と定めた。その後カラー化に際して、カラー情報(バースト信号)を割り込ませる必要が生じ、1953年に総走査線525本、59.94i(29.97fps)がNTSC標準(※5)と定められ、日本もこれを採用した。

また、1989年に日本で実験放送が開始されたMUSE方式のハイビジョン(※6)では、総走査線1125本/有効走査線1035本で60iという方式が採用された。筆者が“質感がショースキャンと似ている”と感じたのは、この60iというフレームレートのためだったのだ。

※4:テレビがこれらのフレームレートを採用した理由は、開発された地域の電源周波数と関係している。つまり、英国は50Hzだったため50iとなり、米国は60Hzなので60iとなった。

※5:欧州などでは、西ドイツで開発されたカラー方式のPALが採用になり、1967年から放送された。この方式は地域によってバリエーションがあるが、基本的に走査線625本、50iという規格で、欧州の多くの国の他、ASEAN諸国、中東、アフリカの一部、ブラジル、オーストラリアなどにも採用された。だがフランスでは、やはり走査線625本、50iではあるが、方式が異なるSECAMが開発され、フランス国内とその植民地、ベルギー、さらにソ連、中華人民共和国などに採用された。

※6:2000年から放送されているデジタル・ハイビジョンでは、有効走査線1080本、59.94iというフォーマットが採用されている。

メディアの違いによる映像の質感とは何か?

筆者が「水戸黄門効果」と名付けた現象がある。

それは、TBS系列で放送された時代劇「水戸黄門」において、1997年10月に放送を終えた第25部までは16mmフィルムで撮影されていたが、1998年2月から始まった第26部からは59.94iのVTR撮影となった。すると、それまでと同じセットや衣装などが用いられているにも係わらず、視聴者からの「安っぽくなった」といった投書が新聞に掲載されたのだ。

当時この質感の差が生じる理由は、テレビ映像は電気信号、フィルムは化学変化という、メディアの記録方法による質感の違いだと考えられていた(「水戸黄門」には当てはまらないが、ブラウン管の透過光、スクリーンの反射光の違いという説もあった)。

しかし、1992~3年にフジテレビの深夜枠で放送されたテレビドラマ『La cuisine』において、岩井俊二が監督を務めた「オムレツ」「GHOST SOUP」「FRIED DRAGON FISH」といった作品で、半分のフィールド情報を捨てて30fpsにするという手法が用いられる。

結果は衝撃的で、てっきり筆者は16mmフィルム撮影だと思い込んでしまったほどだった。そしてこの手法は、「フレームレートを落としただけで、主観的にフィルム風のリッチな質感が得られる」と業界で話題になり、競うように多くの映像クリエーターが真似をした。

このあたりの感覚は、テレビ系のエンジニアには理解できなかったようである。筆者がその現象を、ある技術系の学会で報告した時、偉い人から「フレームレートは高い方が良いに決まってるだろ! 低い方がリッチに見えるなんて、そんなバカなことがあるか!」と怒られた記憶がある。

しかし実際にフレームレートを落とすことで、過剰なリアリティがなくなって造り物っぽさが感じられなくなる。「水戸黄門」を観ていた一般人は、それが記録メディアの変更によるフレームレートの違いとは気付かないまでも、質感の違いは敏感に感じ取っていたのだ。

逆に高いフレームレートは、素材感を生々しく認識してしまうため、セットはセットに見え、カツラはカツラに見えるという現象を引き起こす。そのため、視聴者の心理はフィクションの世界に留まれず、現実世界の見え方に近付いてしまうのである。

ショースキャンはどうなったのか

トランブル自身もこの現象には気付いていたようで、これを逆手に取ったアイデアを生み出した。それは、ラスベガスのピラミッドを模したテーマホテル「ルクソール」内のショースキャン・アトラクション『Luxor Live』(1993, 監督:ダグラス・トランブル)である。内容は、テレビのトークショーを観覧するというもので、一見映像ではなく本物の収録現場だと錯覚するように設計されており、60fpsの生々しさを効果的に使った例と言えよう。

『Luxor Live』の画面(ショースキャン社のパンフレットより)

またトランブルは、ショースキャンの利点はカメラが激しく揺れるような画面でも、画像がブレたりしないことだと考え、シミュレーション・ライドに重点を置き始める。そして、スイスのインタミン社が開発したモーションベースと組み合わせ、「ダイナミック・モーション・シミュレーター」と名付けたシステムを設計し、『暴走列車』(1985)や『急流下り』(1988)といった、乗り物の主観映像を中心としたコンテンツを量産していった。

「ダイナミック・モーション・シミュレーター」のコンテンツ・ラインナップ(ショースキャン社のパンフレットより)

だが彼は、アメリカン・シネマトグラファー誌のインタビュー(※7)で、ショースキャンに対する決別宣言と受け取れる発言をしている。

これは、イタリア政府の依頼でレオナルド・フィルム・フェスティバルというイベント向けにトランブルが監督した、『Leonardo's Dream』(1990)というショースキャン3D(※8)映画についてのコメントで、「衣装やセット、小道具、照明などをふんだんに使って時代ものの映画を撮ったのは、『Leonardo's Dream』が初めてでね。でも完成した後、ショースキャンは劇映画には鮮明過ぎるし、リアル過ぎるという結論に達したんだ。どうも押し付けがましくなりすぎる。劇映画は24fpsが一番良いよ。その速度なら、映像をスクリーンの中に保っておける。これは重要なことで、観客の大半は傍観者として覗き見する方を好むからね」というものだった。

『Leonardo's Dream』(ショースキャン社のパンフレットより)

つまりショースキャンは、ドキュメンタリーやシミュレーション・ライドでは効果を発揮するが、フィクションではテレビドラマと同様に造り物の不自然さを際立たせてしまうということだ。そしてトランブルは1989年にショースキャン社を去り、1994年にIMAX社の副会長に就任した。

※7:Bob Fisher/Marji Rhea 著: “Interview: Doug Trumbull and Richard Yuricich, ASC” American Cinematographer Vol. 75, No. 8 (August 1994)

※8:2組のシステムを用いるショースキャン3D作品としては、他にリチャード・フライシャーが監督したSFコメディ短編『Call from Space』(1989)や、セビリア万国博覧会の「現代と未来のパビリオン」で上映された『再発見! 水の大地に生きる』(1992, 監督:ベイリー・シレック)などがある。後者は、作品の途中から3D映像になる演出がなされていた。

ちなみに、そのセビリア万国博覧会では、「カナダ館」において48fpsのIMAX HD方式が採用された。コンテンツは、NFB(カナダ国立映画庁)が制作した『Momentum』(1992, 監督:トニー・イアンゼロ/コーリン・ロー)という作品だった。

またIMAX社は、韓国で開催されたテジョン世界博覧会の「人間と科学館」において、IMAX HDによる3D作品『Imagine』(1993, 監督:ジョン・ワイリー)も上映している。この映画は、初めて水中3D撮影にもチャレンジしたIMAX作品でもあった。

IMAX社はさらに、ドイツ・ブリュール市のテーマパーク「ファンタジアランド」の「GALAXY」も手掛けている。このアトラクションは、かつてUSJにもあった『バック・トゥ・ザ・フューチャー・ザ・ライド』と同様のIMAX Simulator Ride方式に、さらにIMAX HDを組み合わせた世界最強のシステムとなっていた。ただし、このシステム用のコンテンツは、『Astroid Adventure』(1992, 監督:ホイト・イェットマン)という作品1本しか作られておらず、現在は撤去されている。

24p規格の登場

一方そのころジョージ・ルーカスが、革命とも言える大胆な提言を行なう。

彼は、映画の撮影から上映・保存に至るまでの完全なデジタル化を計画し、1999年3月に「E-シネマ(後のデジタルシネマ)構想」として発表した。そして自身が監督を務める『スター・ウォーズ エピソード2/クローンの攻撃』(2002)で、全編をデジタルHDカメラで撮影し、300~700スクリーンの劇場でデジタル上映を行なうという計画を打ち出したのだ。

UHD BD『スター・ウォーズ エピソード2/クローンの攻撃』

しかし、このプランを実現させるためには、どうしても35mmフィルムと同等の画質で、1080/24p正方画素のフォーマットを持つHDカメラが必要だった。

実はルーカスフィルム社は1997年秋に、ソニーに対して1080/24pカメラの開発を正式にオーダーしている。同じころソニーは、テレビ番組のポスト・プロダクションを手掛けるレーザー・パシフィック・メディア社からも、1080/24pのポスプロ環境の開発を依頼されていた。

そこでソニーは、1997年に発売した1080/60iのカムコーダー「HDW-700」をベースとして開発を進め、24fpsの映像を奇数フィールドと偶数フィールドに分け、1/48秒ずつの2つのセグメントで記録するという、24PsF(Progressive Segmented Frame)フォーマットを完成させた。やがてITU(国際電器通信連合)は、1999年6月に1080/24p規格をHD映像制作の国際交換基準として推奨する。

そして2000年にソニーが完成させた1080/24pのカムコーダーが「CineAlta HDW-F900」であった。ルーカスはこのシステムに対し「長年フィルムで慣れ親しんだ雰囲気や感覚を、そのまま再現できる。そしてフィルム撮影による映像と24pの映像は、大画面でも区別が付けられないことを確信できた」と述べ、『クローンの攻撃』の全てをこれで撮影した。日本の映画界もHDW-F900に非常に素早く反応し、岩井俊二監督の『リリイ・シュシュのすべて』(2001)などが、撮影に1080/24pフォーマットを採用し、この動きは急速に広まっていった。

パナビジョン向けに仕様変更された「CineAlta HDW-F900」(筆者撮影)

このように24p規格は映画人からの要望で生まれたものであったが、テレビドラマにおける導入例も急速に増えていく。

実際、それまで35mmフィルム撮影が主流だった米国でも、2003年にディズニーがテレビドラマ全作品をHD-24pで制作すると発表し、ワーナー・ブラザーズ、FOX、ユニバーサルもそれに準じていった。これは日本国内も同様で、2002年にBS-iで放送された『コンセント』(監督:中原俊)あたりから、テレビドラマを24pで撮影するケースが増えて行った。

その後、邦画ではフィルム撮影は極めて珍しいほど、デジタルシネマは絶対的存在となっていく。一方、米英などでは、35mm 4Pや65mm 5P、65mm 15PのIMAXフィルムなどにこだわる監督や撮影監督も少なくなく、必ずしもデジタルシネマ一色にはなっていない。

しかし、フィルムでは撮影が難しいシーンなど、限定的にデジタル撮影(解像度は2Kから12Kなど様々)が行なわれていることも多いが、その場合でも観客は撮影メディアの違いをほとんど意識しない。つまりそれだけ、フィルムの24fpsとデジタルシネマの24pは区別できないようになったのだ。

『ターミネーター2:3-D』の登場

トランブルがショースキャン社を去った後も、このシステムを使った映像制作は続いていた。その代表が、1996年にフロリダのユニバーサル・スタジオにオープンしたアトラクション『T2 3-D: Battle Across Time』(USJ版は「ターミネーター2:3-D」)である。

フロリダのユニバーサル・スタジオにオープンしたアトラクション『T2 3-D:Battle Across Time』(筆者撮影)

展示全体のプランニングをランドマーク・エンターテインメント・グループが担当し、VFXを映画版のILMに変わってデジタル・ドメインが担当した以外は、監督はジェームズ・キャメロンの他、VFXスーパーバイザーとストーリーボードを兼任したジョン・ブルーノと、アニマトロニクスも手掛けたスタン・ウィンストンの3人が務めるなど、映画『ターミネーター2』(1991)の関係者がほぼそのまま取り組んでいる。

ショーは、舞台上の生身の役者(代役)とアニマトロニクスによる芝居から始まり、やがて彼らはスクリーン内の3D映像へと移動する(映像の中は本物の役者)。この後、頻繁にスクリーンの映像とライブステージの往復が繰り返されるが、人物の大きさと遠近感が完全に一致しているため、まったく違和感がない。

さらに、ここにより自然さを与えているのが、ショースキャンを用いた3D撮影である。これは60fpsの生っぽさが見事に活きた好例となった。

そして何より重要なのが、この『T2 3-D』がキャメロンに強い印象を残し、以後の監督作品(※9)を全て3D映像にするという決意を固めさせた。そしてこの作品が、60fps+3D映像であったことから、彼はHFRの必要性を認めたと思われる。

※9:もちろん翌年に公開された『タイタニック』(1997)はまだ2Dだったが、以後の『ジェームズ・キャメロンのタイタニックの秘密』(2003)や、『エイリアンズ・オブ・ザ・ディープ』(2005)、『アバター』(2009)など、約束どおりに全監督作品を3Dで撮っている。だから2D/3D変換を行なった、『タイタニック3D』(2012)や『ターミネーター2 3D』(2017)の劇場公開は、彼にとって必然だったと思われる。

ライブ映像におけるHFRと3D映像の関係

3Dとフレームレートの関係について考えた場合、カメラがパンした時のような横方向の運動は、24fpsではストロビングが発生しやすく、被写体の正確な輪郭の認識を妨げる可能性がある。これは、LRの映像を脳内で1つにする“融像”という作業をし辛くさせ、これが疲れや不快感を発生させる原因となる可能性が考えられる。

同じことは、広過ぎるシャッター開角度によるモーション・ブラーにも言える。これに関しては、HFRは確実に効果を発揮するだろう。したがって、ドキュメンタリーやライブなどの3Dコンテンツでは、HFRの導入は必須と思われる。

例えば、RealD社がロイヤル・オペラ・ハウスによる舞台をデジタル3D撮影した『カルメン3Dオペラ』(2011, 監督:ジュリアン・ネイピア)では、全編を通して強過ぎるモーション・ブラーが感じられ、特にカメラが動いた時は画面全体がブレまくりの非常に見辛い映像になり、指揮者の腕などは完全に透明になっていた。おそらくデジタルシネマカメラのシャッター開角度が、360度全開に近い撮影だったと思われる。

RealD社がロイヤル・オペラ・ハウスによる舞台をデジタル3D撮影した『カルメン3Dオペラ』のチラシ(筆者所有)

また、ヴィム・ヴェンダース監督が亡くなった舞踊家ピナ・バウシュを追悼するために、彼女が芸術監督を務めていたヴッパタール舞踊団のパフォーマンスをデジタル3D撮影した『Pina/ピナ・バウシュ 踊り続けるいのち』(2011)においても、ジャダーやストロビングが問題になり、理想的なシャッター開角度を求めてテスト撮影が繰り返された。

『Pina/ピナ・バウシュ 踊り続けるいのち』のドイツ版ポスター(筆者所有)

さらに、エンターテインメント集団「シルク・ドゥ・ソレイユ」のラスベガス公演の映像をベースとして作られた『シルク・ドゥ・ソレイユ3D 彼方からの物語』(2012, 監督:アンドリュー・アダムソン)では、3D映像が迫力ある臨場感をもたらすものの、どこかライブパフォーマンスとは違う冷めた感じがしてしまった。やはり24fpsが、観客との間に“映画”的な距離感を作ってしまったのであろう。こういった問題は、音楽のコンサート映像やスポーツのパブリックビューイングでも、臨場感を妨げる原因になると思われる。

『シルク・ドゥ・ソレイユ3D 彼方からの物語』のチラシ(筆者所有)

シミュレーション・ライドのHFR 3D

一方で、シミュレーション・ライドにおいては、HFRが完全に定着していった。

例えば、2010年にユニバーサル・スタジオ・ハリウッドに設置されたアトラクション『King Kong: 360 3-D』では、ツアーのトラムが古代遺跡を模した建物に入ると、左右両面を幅54mの曲面スクリーンが覆うようになっており、コングとV-Rex(架空の恐竜)の死闘が描かれ、同じトラムツアーの仲間が悲惨な目に合う(ように見える)演出がなされている。

『King Kong:360 3-D』

映像は、映画『キング・コング』(2005)と同じニュージーランドのWETAデジタル社が手掛けたもので、各スクリーンに8K+60fpsで、合計16台のデジタルプロジェクターから3D投影される仕組みだ。監督を手掛けたピーター・ジャクソンは、この経験から後述する『ホビット』三部作でのHFR 3D化に踏み切る。

また、オーランドのディズニー・パーク「アニマル・キングダム」にある、映画『アバター』をテーマにしたシミュレーション・ライド『アバター・フライト・オブ・パッセージ』(2017)は、ウォルト・ディズニー・アトラクションズとライトストーム・エンターテインメント、及びWETAデジタルが共同開発したシステムだ。マウンテン・バンシー(イクラン)と呼ばれる翼竜に似た生物に乗って、パンドラの大空を駆け巡る疑似体験ができるというもので、映像は10K+60fps+3Dという贅沢な仕様になっている。

『アバター・フライト・オブ・パッセージ』

ここで紹介したのは2例だけだが、世界のシミュレーション・ライドは、現在ほとんどが48~120fpsのHFRになっている。画面も、新しいシステムほど高解像度になっており、風や香り、水しぶきなどの4D的ギミックも加えられ、まさしく映像技術の実験場となっている印象だ。

『ホビット』三部作での試み

そしてジャクソン監督は、『ホビット 思いがけない冒険』(2012)、『ホビット 竜に奪われた王国』(2013)、『ホビット 決戦のゆくえ』(2014)の三部作で、長編劇映画における世界初のHFR 3D撮影・上映を試みた。ジャクソン監督は、自らニュージーランドに設立したパークロード・ポストプロダクションにおいて、フレームレートとシャッター開角度の最適値を探るテストを行ない、48fps/270度がベストという結論を出している。

『ホビット 思いがけない冒険』の米ポスター(筆者所有)

そして、デジタルシネマカメラRED EPICを用い、5K+48fpsで3D撮影する。さらに造り物全体の材質も徹底的に研究され、極力本物の材質が使用されたという。実際にセットを見学した人の話では、従来の映画とは比較にならないほどリアルに作り込まれていたそうだ。さらに、カラーグレーディングによって色彩に渋さが加えられ、生っぽさを極力抑えた画面作りがなされた。

3ality Technica社の3DリグTS-5に取り付けたRED EPIC

それでも完成した『ホビット』のHFR 3D版を見た観客の多くが、「テレビゲームのようだ」「テレビドラマみたいだ」という感想を持ったようである。特に、ナイトシーンや洞窟の内部などでは、どうしてもセット感が出てしまっており、HDのスタジオドラマのような印象になってしまっている。

だが、最初は生っぽさに抵抗を感じた観客が、2度目に24fps版の『ホビット』を鑑賞したり、別の3D映画を見た時に、それまで気にしていなかったフィルムジャダーが急に煩わしく思えるようになったと発言していた。

つまり、我々がこれまで24fpsの映像に馴れていただけとも考えられ、DVDで十分だと思っていた人がBlu-rayを体験して後に戻れなくなったように、人間は一度高いスペックを経験すると感じ方が変わってしまうのかもしれない。

ただHFR 3D版の『ホビット』を鑑賞した観客の中に、めまいや吐き気を感じたという人々も現れた。これは「映像酔い」によるものだと考えられるが、その原因は“誘導運動”と呼ばれる現象が関係している可能性がある。

例えば、ホームに停車中の電車に乗っている時、隣の線路にいた車両が発車すると、自分の乗っている車両は動いていないにもかかわらず、逆方向の加速を感じてしまうことがある。この錯覚が、乗り物酔いに似た自律神経の失調状態をもたらすというのものだ(※10)。

誘導運動は3D映像に限った現象ではなく、2Dの映像でも生ずる。

特に『ホビット』では、(HFR効果を活かすためか)猛烈に速い移動ショットを多用しており、スクリーンに近い所で鑑賞していた観客の中には、身体が振り回されたような感覚を覚えた人がいたのかもしれない。だが少なくとも筆者は、通常はモーション・ブラーで不明瞭になってしまうような、素早く移動しながらのモブシーンでも、1人1人がきちんと見分けられることに感心した。

※10:他にも3D映像で頭痛や疲れが発生する理由には、前後の奥行きを深くし過ぎることによる後方発散や前方発散、不適切な視差、極端に視差の異なるショットを繋いだ編集、激し過ぎるカメラワーク、左右のシンクロずれ、色ずれ、片目だけの大きなハレーション、スクリーンと座席の位置関係、暗いスクリーン輝度などもある。

その後のトランブル

トランブルはIMAX社の後、バークシャー・モーションピクチャー社、ライドフィルム・シアター社、マジックリープ社などの、社長や重役、諮問委員などを歴任していった。その後、マサチューセッツ州西部にトランブル・スタジオを設立し、『ツリー・オブ・ライフ』(2011)や『ヒトラーを殺し、その後ビッグフットを殺した男』(2018)といった劇映画に参加した。

また、2010年より再びHFR技術に取り組み始める。

研究初期は「ショースキャン・デジタル」という名称だったが、2014年に「MAGI」(発音はマジャイ)が正式名称になる。基本的に4K+120fpsのデジタル3Dだが、24fps、48fps、60fpsなどに変換が可能である。これは単純にフレームを間引くのではなく、独自のアルゴリズムによってオリジナルのフレームをブレンドし、ストロビングを発生させない、最適なモーション・ブラーを持った画像を生成するというものだ。

またトランブルは、HFRと3Dの愛称の良さについても言及している。それは、横運動する被写体がLR逆転して見える現象を抑える効果があり、頭痛や目の疲れが軽減できると発言している。さらにMAGIでは60fpsに変換した3D映像の、交互に投影されるLRの画像に時間的連続性を持たせられるという特徴もある。

この技術を用いた最初の作品は、トランブルの監督による短編『UFOTOG』(2014)だ。これは彼の晩年のライフワークだった、本物のUFOの捜索をテーマにしたデモ映像で、長編化する計画も持っていた。さらに2016年には、MAGI Podという専用劇場の構想も発表している。だがこれらは、トランブルが2022年2月7日に亡くなったことで、実現することはなかった。

アン・リーの挑戦

実際に、トランブル本人によるMAGIのデモンストレーションを経験したのが、アン・リー監督だった。リーは『ライフ・オブ・パイ/トラと漂流した227日』(2012)で3Dを成功させていたことから、次なるステップとして4K+3D+120fps+HDRという、現在可能な技術を全部乗せした映画『ビリー・リンの永遠の一日』(2016)を企画する。

『ビリー・リンの永遠の一日』の米ポスター

リーは、ソニーに協力を求め、CineAlta F65を2台使用して、120fpsの4K3D撮影が可能なシステムを構築した。しかし、実際に120fps+HDR+3D上映が行なわれたのは、ニューヨーク、ロサンゼルス、ロンドン、北京、上海の5劇場だけであり、日本では2D版すら劇場公開されなかった。

リーは次に『ジェミニマン』(2019)を、Arri Alexa SXT-Mを2台使用し、120fpsの4K3Dで撮影を行なった。

今回は公開規模を増やし、日本の多くの劇場で60fpsの3D上映が行なわれている。しかし120fpsで上映したのは、MOVIXさいたま、梅田ブルク7、T・ジョイ博多の3館のドルビーシネマ劇場だけだった。しかも2K映写で、フルスペックの条件で上映された劇場は世界のどこにもなかったそうである。

120fpsの4K3D撮影が行なわれた『ジェミニマン』。UHD BDでは4K/60fps(2D)で収録されている

ウィル・スミスが超ヌルヌルに。4K/120コマ撮影の3D映画「ジェミニマン」を観た

それでもHFRの効果は劇的で、初めてショースキャンを観た時のような、過剰なまでの生々しさを覚えてしまった。これは激しい銃撃戦のような場面では、臨場感としてプラスに働いてくれる。だが、普通のお芝居のシーンでは、どこか隣の部屋を覗き込んでいるような落ち着かなさを感じるのだ。そして、どうでも良いような細部が気になってくる点では、ショースキャンのドラマと同じだった。

『アバター:ウェイ・オブ・ウォーター』はどうなるか

キャメロンもトランブルによるMAGIデモを体験し、圧倒されたそうだが、120fpsの採用は見送った。キャメロンが2011年の「Cinema Con」で語っていたことによると、「すでに1作目の『アバター』でも48fpsを検討していたが、上映環境が整っておらず見送った」ということである。そして2011年の時点では、「続編は48fpsか60fpsで撮る予定だ」と述べていた。

ただし彼の考えでは、不要な生っぽさを避けるため、通常の静かなシーンでは24fpsで上映し、動きの早い場面のみHFRを使うというプランだった。これは日本のアニメーションが、基本的に秒8枚で作画し、動きに合わせて12枚や24枚を組み合わせるという考え方に似ている。

『アバター:ウェイ・オブ・ウォーター』
(C) 2022 20th Century Studios. All Rights Reserved.

この原稿を書いている時点では、20分間ほどのフッテージ上映だけしか観ることができていないが、『アバター: ウェイ・オブ・ウォーター』のプロデューサーであるジョン・ランドー氏によると、「普通のドラマ場面では24fpsで上映し、アクションシーンや水中シーンは48fpsになる」ということだった。実際にフッテージを観た印象では、フレームレートの変更箇所はほとんど意識に上らず、自然に切り替わっていた感じだ。

生前のトランブルは、フィルム・プロジェクターのシャッターを模した黒いフレームを挿入することで、HFRのテレビっぽい印象が軽減できると話していた。しかしアン・リーのチームに何度説明しても聞き入れてもらえなかったそうである。キャメロンもトランブルから教えを受けているはずで、そういったテクニックが盛り込まれているのかが、非常に気になる点だ。

映画『アバター:ウェイ・オブ・ウォーター』【人類史上最高の映像体験】スペシャル映像 12月16日(金)劇場公開
大口孝之

1982年に日本初のCGプロダクションJCGLのディレクター。EXPO'90富士通パビリオンのIMAXドーム3D映像『ユニバース2~太陽の響~』のヘッドデザイナーなどを経てフリーの映像クリエーター。VFX、CG、3D映画、アートアニメ、展示映像などを専門とする映像ジャーナリストでもあり、機関誌「映画テレビ技術」、WEBマガジン「CINEMORE」、劇場パンフなどに寄稿。デジタルハリウッド大学客員教授の他、早稲田大理工学部、女子美術大学専攻科、東京藝大大学院アニメーション専攻、日本電子専門学校などで非常勤講師。