藤本健のDigital Audio Laboratory
第914回
立体化よりも音質向上!? Dolby Atmosミックスの音楽的効用を探る
2021年10月18日 11:36
もともと劇場などで利用することを主眼として広まった立体音響技術「Dolby Atmos」。いまでは多くのAVアンプやスマートスピーカー、スマートフォン等がDolby Atmosに対応し、Amazon Prime Video、Netflix、Apple TV+、ひかりTVなどの動画配信サービスにも普及してきている。今年6月からは“空間オーディオ”という呼び方で、Apple Musicが加わったことで、今後は音楽コンテンツのDolby Atmos対応が加速していく可能性もありそうだ。
実際、音楽家の間でも、Dolby Atmosに対応する動きが出てきており、Dolby Atmos対応のレコーディング/ミックス・スタジオを作るクリエイターも現れはじめた。その一人が、作編曲家兼音楽プロデューサーで、「SCREEN mode」としてアーティスト活動も行なっている太田雅友氏だ。
太田氏自身が代表取締役を務めるFirstCallMusicでは、先日「ファーストコール・ミュージック Vibes代官山スタジオ」というDolby Atmosミックスに対応した音楽用スタジオをオープンし、外部への貸出しも含めた運営をスタートさせた。実際どのようなところなのか見学させてもらうとともに、太田氏にDolby Atmosをどう捉えているのかなど、話を伺った。
Netflixの“Atmos納品推奨”が契機。代官山にAtmos用スタジオ設置
当初は、興味本位でスタジオ見学してきたのだが、実際にDolby Atmosで音楽を聴かせてもらったところ、かなり衝撃を受けると同時に、今後は音楽制作のありかたが変わってくるのでは、とも感じた。
というのも、Apple Musicの空間オーディオをヘッドフォンで聴くと少し立体的になって面白いが、それは音楽をDolby Atmosミックスすることのメリットのほんの入り口に過ぎないようなのだ。
立体的に聴かせるための手段ではあるけれど、実は“立体化よりも音質向上”という点で大きな意味を持っていること。さらに使い方によっては、“ハイレゾをはるかに上回る音質向上”が見込めることを実感した。正直なところ、これまで「Dolby Atmosなんて圧縮オーディオなんだから、音質面においては大したことはない」と高をくくっていたのだが、実はこれが本命である可能性だってあることを感じた。実際、どういうことなのか、太田氏にいろいろと聞いてみた。
――太田さんが代官山にDolby Atmos対応のスタジオを作られたキッカケを教えてください。
太田氏(以下敬称略):Netflixへの納品は、Dolby Atmosでのサウンドが推奨されています。Dolby Atmosが絶対というわけではないようですが、これは大きな動きだと感じています。最近、私の仕事も劇伴の制作が多くなっており、劇場版のアニメなどは最初からDolby AtmosでTD(トラックダウン)しておいたほうがいいのでは、と思っていました。
当社は、元麻布にスタジオがあり、ここではコントロールルームと3つのブースがあり、ボーカルレコーディングやダビング、TDほか5.1chのサラウンドミックスまで行なえるようになっています。元麻布スタジオをDolby Atmos対応できればよかったのですが、天井が普通の高さであるため、7.1chと4つの天井スピーカーが必要となるDolby Atmosは物理的に組むことができません。そのため、たまたま見つけた、代官山のスペースを借りてDolby Atmos対応のスタジオを作ることにしました。準備から完成までかなり時間がかかりましたが、その間にAppleが空間オーディオを発表したのです。ちょうどいいタイミングだったと感じています。
――空間オーディオのために準備した、というわけではなかったのですね。でも代官山スタジオの構築にあたり、かなり大改修をしたのではありませんか?
太田:イマーシブのスタジオに変更するにあたっては、それほど大きな改修をしなくてもすみました。Dolby Atmos用のスタジオにするには、少し天井が高すぎるのですが、Dolbyが提供している規格書を元に、スピーカーの位置を計算してみたところ、なんとか行けるなと。
天井スピーカーの角度がセンターから45度以上広げるのが理想ですが、ギリギリ規格内に収まっています。天井から吊しているスピーカーをあと20cm下げればピッタリ45度になりますが、とりあえずはこれで大丈夫と、Dolby Japanの方からもアドバイスいただけましたので。
――見たところ、スピーカーはGenelecの「8330A」を使ってますね。天井も、フロントのスピーカーもすべて同じですか?
太田:Dolby Japanの方から、「できるかぎりすべて同じスピーカーユニットで揃えたほうがいい」と言われていましたので、全て同じ8330Aにしています。
正面のセンタースピーカーはスクリーンの後ろ側に隠れていますが、これも8330Aです。必要があれば、スクリーンを外すことも可能です。小さいスピーカーではあるのですが、これでもかなりのパワーが出せますね。ただ、Dolby Atmosスタジオとはいえ、音楽制作において基本はステレオですから、フロント3つのスピーカーだけはもうワングレード上げてもいいかな、とは思っています。
代官山スタジオのシステム構成
――どのようなシステム構成になっているのか、概略を教えてください。
太田:機材リストとはWebでも公開していますが、ハード的な接続を簡単にまとめると、図のようになります。
ちょっと複雑な感じですが、メインとなっているのが、Mac mini 2018で動かしているProTools HDXですね。Mac miniで実用上問題ありませんが、今後はMac Proなどへのリプレースを考えているところです。これがHDXカード経由で2台のMTRX Studioに接続されています。
Genelecのモニターには、このMTRX Studioからアナログで接続しています。MTRX Studioは64chを通すことができるので、これ1台で間に合うケースも多いとは思いますが、Dolby Atmosは128chまで使えて、足りなくなるケースもあるため2台設置しています。
――MTRX Studioの先にいろいろ接続されていますね。
太田:Dolby Atmosスタジオとして重要なのが、DanteとRedNet PCIeを経由して接続している「Dolby Atmos Renderer」です。これは前述したメインとは別に用意したMac miniで、ProToolsから届く128chの信号をリアルタイムに7.1.4chに変換すると同時に、バイノーラルの2ch、そして5.1chの3種類に変換しています。仕組み上、Dolby Atmos RendererをPro Toolsと同じマシンに置くことも可能ですが、その場合はMacへの負荷が大きくなってしまう。そこで、変換だけの専用マシンとして独立させることで、CPU負荷を下げているのです。
――つまりProToolsからの出力は、MTRX Studioから7.1.4chスピーカーへ音が出ているわけではなく、もう1台のMac miniを介して音が出ているというわけですね。2chと5.1chはどのような役割なのですか。
太田:Apple Musicが空間オーディオをスタートさせたこともあり、ヘッドフォンで楽しむケースは今後ますます増えていくと思います。そうした流れにもマッチできるよう、バイノーラルにデコードして、GRACEの「m904」からモニターできるようにしてます。
一方で、Dolby Atmosサウンドを視覚的にも見えるように、FluxのPure Analyzerで表示できるようにしています。この際、7.1.4chすべてを表示させると多すぎて何が何やら分からなくなってしまいますから、5.1chにまとめて感覚的に分かりやすくしています。このFluxのPure Analyzer用には別途Windowsマシンを使っています。
ダイナミックスの広いミックスにより音質向上が見込める
――贅沢なマシンの使い方のようにも思いますが、この負荷分散は非常に合理的ですね。では、改めてProTools側からDolby Atmos Rendererへ送るチャンネルについて少し解説していただけますか?
太田:ProToolsからDolby Atmos Rendererへは128chの信号をパラで送るのですが、このうち7.1.2chはBEDsという固定になります。
天井で固定されているのはLRであって、天井の前後というのはないのです。それ以外はオブジェクトとなっており、どの方向からの音であるかの情報とともに送っています。オブジェクトはどこかの位置に固定しておくこともできるし、動かすことも可能。128chあるうちの頭の7+1+2=10chがBEDsで、最後に同期信号を送っているので、オブジェクト信号としては117chということになります。
ここでは、この信号をDolby Atmos Rendererが7.1.4にダウンミックスして、それがDanteを経由してGenelecのスピーカーから出てくる音を聴きながら作業するわけです。一方で、Dolby Atmos Rendererを通じて、ADM(Audio Definition Model)というファイル形式のBroadcast Waveで書き出すことができます。実際に納品する場合にはこのADMファイルで行なうことになります。Netfixなどで配信される場合はもっと圧縮されますが、ADMファイルの時点では非圧縮のかなり大きなデータになっています。
――最終的にどのくらいのビットレートで提供されるかは、それぞれのサービスによって変わるわけですね。ADMファイルを作るにあたって、注意することはありますか?
太田:従来とレベルの管理の仕方が大きく変わってきます。Appleなどもラウドネス規制が厳しくなり、基準に合わないとリジェクトされてしまいます。J-POPだと、思い切り音圧を突っ込むケースがありますが、これではダメなのです。
一方Dolby Atmosの場合は、サラウンドの各チャンネル、天井のチャンネル、そしてサブウーファー(LFE)と、それぞれデータとして分かれていて、とくにLFEが分離されていることが大きな意味を持ちます。
ここにかなり強い低音を突っ込んでも、再生時にデコーダーが再生機器にマッチした形で最適化してくれるので、サブウーファーを持たないシステムだと、できる範囲でしかやらないため、破綻することがない。デコーダー側が、スピーカーの本来持つ性能を100%生かす形で再生してくれるわけで、そこを任せることができるのです。
ローが出せないシステムならそれなりの音、ローが出せる機材があれば存分に低域を楽しむことができるというわけですね。ですからサブウーファーから思い切り音が出るようなミックスをしても、AirPodsで明瞭に聴くことができる。結果的に、非常にダイナミックスの広いミックスをしていくことになり、音質の向上が見込めるのです。
――先日、AirPods Proを買って、Apple Musicの空間オーディオを試してみたところ、首を振ることで、ある程度音の位置は掴めるようになりましたが、立体感という意味ではまだまだ厳しい気もしました。
太田:AirPods Proだとそうですね。でもAirPods MAXだとだいぶリアルに感じられますよ。もっともDolby Atmosのデコーダーの性能は、技術進化にともない今後まだまだ向上していくだろうと期待しています。
一方で、Appleはステレオのオーディオを疑似空間オーディオにする機能も付けてきました。面白い試みだとは思いますが、今後デフォルトでこの機能がオンになると、作り手として想定した音ではなくなってしまう可能性もあるのではないか、と危惧しています。
であれば、最初からDolby Atmosでミックスしておけばいいのではないか、と思っています。映画やアニメで劇伴など音楽をミックスする場合も、最初からDolby Atmosで作っておけば、ミックスしなおす手間もなくなり、効率的でしょう。音楽を作る側としては、アレンジの段階から、どの音をどこに配置するかを考えるべき時代になっていくのでは、と感じますね。
――ポストプロダクションは別にして、音楽スタジオで、このようなDolby Atmosでのミックスができるスタジオは、まだ少ないと思いますが、今後どうなっていくと思いますか?
太田:このスタジオでは、ProToolsとDolby Atmos Rendererを使っていますが、Appleは年内にLogicをDolby Atmos対応させると明言していますし、今後この流れは加速するのではないでしょうか。
NUENDOも、NUENDO 11以降プレイバックはできるようになっていて、7.1.4chのADMファイル書き出しも標準でできるようになりました。リアルタイムで聴く機能には制限がありますが、Logicが対応することを考えると、NUENDOやCubaseなども対応していくのではないかと考えます。
私は普段、Cubaseを使って制作しているので、現在はパラで書き出したものをProToolsに取り込んでいますが、これが直接できるようになると、変わってくると思います。もっとも、一般に広く普及するまでにはまだ時間はかかるでしょう。私が最初にハイレゾに取り組むようになったのは2007年ごろでしたが、広まっていったのはその5~6年後でした。それを考えると同じくらいかかるのではないでしょうか。
スタジオで聴く空間オーディオの音質にビックリ!
このようなやりとりの後、太田氏のスタジオで、Apple Musicで配信されているいくつかの空間オーディオの楽曲を聴かせてもらった。これはApple TVの出力をヤマハのAVアンプにHDMI接続してデコードしたもの。ヤマハのAVアンプの出力は、前述のMTRX Studioに接続されており、ここからGenelecの7.1.4chのスピーカーへと接続されている。
太田氏お薦めの楽曲を聴かせてもらうと、その音質の良さにビックリした。これはADMファイルを直接聴いているわけではなく、Apple Musicによって非可逆圧縮されたオーディオなのだが、ものすごくダイナミックレンジが広く、下手なハイレゾより断然いい音に思えた。もちろん、空間の広がりというのもあるけれど、立体的に聴こえることよりも、音自体の良さに驚かされた。これが、各システムごとに最適化されてデコードされた、という意味なのだろう。
さらにちょうど先日、筆者の運営しているDTMステーションで取り上げた「UQiYO」というアーティストの新譜を聴かせてもらって、面白さを実感。これは7chあるスピーカーそれぞれに、7種類のアコースティックギターの演奏を割り当ててミックスされたもので、空間的にもユニークな構成になっている。iPhoneとAirPods Proの組み合わせだけだとなかなか分かりにくいが、7.1.4chの再生環境があると、まったく違ったものとして聴こえてくる。
今後、キーとなるのは、再生環境の普及と、バイノーラルデコーダーなどの技術進化、そして何より重要なのがコンテンツの充実であり、太田氏のような取り組みをするクリエイターがどれだけ増え、経験値を積み上げていくかにかかっている。これからの音楽業界の動きに注目していきたい。