ニュース
「BLAME! 」制作陣が、HDRやAtmosで目指した表現。CG+最新技術でアニメはどう変わる?
2017年8月4日 09:15
弐瓶勉の漫画を、連載から20年を経て、瀬下寛之監督とポリゴン・ピクチュアズがアニメ化した「BLAME!」(ブラム)。独特の世界観を緻密に描いた魅力に加え、映像と音声のクオリティの高さでも話題になっている。制作したポリゴン・ピクチュアズを訪ね、作品が生まれるまでの工程を振り返りつつ、最新技術を武器に様々な表現にチャレンジする同社の深いこだわりについて、副監督の吉平“Tady”直弘氏らに話を聞いた。
同作品は、5月20日より国内での劇場公開とともに、日本を含む全世界でNetflixが配信。Netflixにおいて、Dolby VisionのHDR映像と、Dolby Atmosの立体音響で制作された最初のアニメ作品となる(Dolby Atmosに対応したのは7月28日から)。通常のSDR映像や、テレビのスピーカーからの音との違いなどもチェックした。
BLAME! 現場クリエイターのこだわり
映像を制作したポリゴン・ピクチュアズは、CGでも不自然さを感じさせない“セルルックアニメ”を特徴とし、Netflixでも配信されている「シドニアの騎士」や「亜人」などを手掛けた。このスタジオで、「BLAME! 」制作当時の実際の工程とこだわりについて、吉平副監督や、現場の各セクションの担当者が解説した。
デザイン画
キャラクターのデザイン画については、日本アニメらしい顔立ちの“今風のキャラ”を目指したというヒロイン・づるの顔と、対照的に、西洋風の彫りの深さが特徴的なシボの顔立ちの違いを説明。
こうした特徴を持たせた“アタリ”(正式版の元になる仮の画像)の形状は、Zbrushという造形ソフトを使用。服のシワなどは、Zbrushのスカルプト機能で作っているほか、ロボットのような表面の質感は、手で地道に一つずつ作っているという。
リギング
先ほどのデザインを元に、キャラクターに関節や筋肉をつけ、アニメーターがキャラに動きをつけられるためのコントローラをつける役割を持つのがリギング工程。
今作で最も強い“セーフガード”であるサナカンは、体に鎧のようなパーツを持ち、人造人間のような形だが、そうした質感を保ちつつ、人と同じ関節構造を持たせ、有機的に動かすのが課題だったという。
特に難しかったのは肩の部分とのことで、関節を硬くしすぎるとシルエットが崩れるため、バランスが重要だったという。同様に、お尻の部分には円形のシリンダーのようなパーツがあり、それが歪まないようにしつつ、いかにきれいに足を曲げるかという点に苦労したとのことだ。
また、シボの背中には、弓のような独特なパーツがあり、その部分の硬さを維持しながらかがんだませるといったことが苦労したとのこと。ちなみに、吉平氏によれば、この背中のパーツの意味については、「BLAME! 2に資金が出ることが(制作されることが)決まったら話します(笑)」とのこと。
アニメーション
このリギングを元に、3D演出、演技を行なう工程。今作で特にこだわった一つにカメラワークがあり、“3DCGならではのステディカム”を用いたとのこと。例えば、作中で探索メンバーが大量の食料を見つけたシーンでは、それを拾ってカバンに詰め込む真横をカメラが通り抜けるように移動するなど、カメラを引いて撮った絵とは違ったCGならではの視点によるカットが生まれる。例えば画面に3人キャラクターがいるときは、カメラが“4人目のキャラ”になるようなイメージだ。
また、細かな動きとしては、主人公たちを襲うセーフガードの“気持ち悪さ”の表現にもこだわっている。機械でありながら昆虫のような足の動きや、倒した後も、触覚の部分が最後にピクッと動くところなど、生き物と機械の中間のような不気味さが描かれているのが分かる。
また、CGの特徴を活かせるのが、フレームレートの部分。作中ではシーンに合わせてフレームレートをカットごとに細かくコントロール。また、例えばカメラ全体はフルフレームで滑らかに動かしつつ、キャラは低fpsにしてアニメならではの表現をするといった、細かな描き分けが行なえ、「フレームごとにアニメーターの魂が込められている」という。
ライト&コンポジット
手描きアニメの“撮影”に相当する工程。CGで作られたキャラや背景、エフェクトを合成して絵を作り上げる。3DソフトのMAYAを使用し、矢印で光の当たる方向を決めるといった作業を行なう。
一般的に、照明が変わると、それが当たる人の顔などの色なども、赤っぽくなったりなど変化するが、そうした背景に合わせたキャラの色も、色専門の職人が作り、合成する。
手描きとは違う表現、コストと作品作り
ポリゴン・ピクチュアズが制作に掛ける作業時間は作品によって当然異なるが、BLAME! では、アニメーターでいうと1日で約3秒分を作り、ライト&コンポジットの作業はその約3倍ほど。これは、ハリウッドの大作アニメに比べて1/3~1/5ほどスケジュールであり、生産性は高いとのこと。制作期間が短い日本のアニメのスタイルでもあるという。
前述したように、フレームレートに違いをつけるといった表現について吉平氏は「少なくとも日本のアニメの世界ではマイノリティの域を出ていない。手描きアニメにある魅力は、コンピュータージェネレーテッドなアニメでそれを追い越すことはできないと思っているが、足りない部分をテクノロジーで補い、自分たちの競争力としていきたい」と語る。
Dolby VisionのHDR制作については、「暗闇と光の階調をフルレンジで持つことをテーマにした。照明によってドラマが描かれる演出を多用している」とのこと。国内の映画館はまだHDR上映に対応していないが、映画館用のグレーディングと、HDRの要素を強調したグレーディングの絵を作り、それぞれの魅力を損なわない作品に仕上げたという。
制作に使われるソフトは、前述したZbruchや、MAYAのほか、エフェクトのHoudiniなどを使用。それらを連携させるためのパイプラインは自社で制作したものを使用。さらに、ライト&コンポジットの工程では、よりセルルックアニメを魅力的に作れるようにするというツール「マネキ」を使用。それにより描かれる表現を、同社エンジニアは「ノンフォトリアルとフォトリアルの間にある“フォトシュールレアリズムレンダリング”」と呼んでいるとのこと。
コスト面では、キャラ数などにもよるが、手描きに比べて3DCGのほうが、初期段階では多くの投資が必要となるが、24話の場合2シーズン、3シーズン作ることができ、クオリティが高く安定したものを大量に作れるという点で生産性も高いという。
「一度リアルなアニメーションを作れば、カメラアングルを変えたり、表情を変えたりしてリユースできる。高いクオリティで初期のシーズンを終え、次シーズンでは流用しながらコストを回収していくこともある」といった戦略を説明。また、尺が短い作品の場合はキャラクターを減らすといった形で、様々な方法で予算に合わせた作り方ができるとのこと。実際にキャラクター数、アクションシーンの割合、特別なエフェクトの数などの計画に合わせて、1日当たりに生産できるシーンが3秒なのか、1秒なのかといったことが決まっていくという。BLAME! の場合は、サナカンと霧亥(キリイ)の戦いの戦いをより際立たせるため、全体としては静的なシーンが長くなっている。
魅力的なキャラクターが登場するBLAME! についても「実際のキャラは10人もいない(普通の村人などを除いた場合)」とのこと。観る人にはあまり意識させない形でコストを抑えながらも、細かな表現のこだわりは妥協しない徹底した取り組みが、多くのファンを生む作品につながっているようだ。
今回話を聞いた吉平“Tady”直弘氏は、東宝が2017年に配給し、Netflixが世界展開するアニメーション映画「GODZILLA」の演出を担当するキーマンでもある。こうしたこだわりを聞き、これからの作品への期待もさらに高まった。
Dolby Vision & Atmosで、改めて感じたクオリティの違い
上記の様々な説明を受けたうえで、今度はドルビージャパンに移動し、Dolby Atmosと、Dolby Visionの映像を体験。筆者はイオンシネマ幕張新都心で劇場でのDolby Atmos音声で「BLAME! 」を観たが、Dolby Vision/Atmosの両方で楽しむのは、今回のNetflixでの視聴が初めて。
現時点でDolby Vision/Atmosに対応するテレビは、LG製の有機ELモデルなど一部に限られる(ソニーのBRAVIA一部モデルはアップデートで対応予定)。テレビ以外では、Xbox One SがDolby Atmos音声に対応するが、映像はDolby VisionではなくHDR 10までの対応。こうした対応機器の違いはNetflixのアプリ側で判断し、機器にあったフォーマットで配信される。
「BLAME! 」や「シドニアの騎士」の映像を、Dolby VisionのHDRとSDRで見比べると、明るい部分が白飛びせず緻密に表現されているだけでなく、階調表現の高さによって、HDRの方には立体感がはっきりわかる。
10bitのHDR 10と、12bitのDolby Visionの違いについて、ドルビージャパンの真野克己氏によれば、「カメラノイズがある自然映像では、2bitの差はわかりにくいが、高精細なCGなどでは、元のノイズががまったくないため、フラットで緩やかなグラデ-ションが付き、それがバンディングとして出てしまい、2bitの差が効いてくる」とのこと。
一方で、ネットワーク上で10bitしか通らない部分がある時には、ドルビーの独自技術で、12bitを10bitにシェーピングする方法を使用。詳細は非公開とのことだが、単にカットするのではなく、10bitで伝送した後にリシェーピングして12bitにリストアするという。
CGがHDR化されることの特徴としては、「今までのSDRだと、映らないという理由から描き込まれていなかったディテールが、描き込めるようになった。クリエイターの作業は今までに比べて5倍かかるかもしれない。でも、それに伴った“芸術性”も出せるようになった。そうしたツールができたと我々は期待しているし、クリエイターの方たちもチャレンジしたがっている」(真野氏)とのこと。
Dolby Atmos音声を、シアターシステムでも体験した。今回はLGの有機ELテレビ'16年モデルのNetflixアプリで再生し、HDMIのARC機能でデノンのAVアンプにビットストリーム出力。そこからイネーブルドスピーカーを用いた7.1.4ch環境で聴いた。
テレビの内蔵スピーカーでは、当然ながら前からしか聴こえず、平面的に音が出ているという印象。Dolby Atmosに変更すると、まず人の声の残響が大きく変わり、その空間の広さが伝わる。単に音のフォーカスがぼやけるのではなく、セリフはしっかり聴きとれるが、周りに響く音も違和感なく届く。
アクションシーンになるとその差はさらに歴然。“駆除系”がガサガサと押し寄せてくるシーンでも、鳥肌が立つほど気味悪さを映像だけでなく音でも表され、キャラクター達と同じ場所にいるように錯覚した。
これまで劇場でもDolby AtmosでBLAME! の魅力を味わったが、今回の取材でクリエイターの細かなこだわりについて知り、一部の特徴的なシーンを視聴してみると、これらのことを踏まえて、改めて本編をもう一度観たくなった。