藤本健のDigital Audio Laboratory
第933回
音楽ユニット「夏澄Kasumi」のDolby Atmos制作術を聞いた
2022年3月28日 11:24
Dolby Atmosに対応した音楽コンテンツは、2021年にApple MusicやAmazon MusicがDolby Atmosでの配信サービスをスタートさせたことにより、少しずつ増えてきている。ただ、その大半は従来のステレオ作品をミックスしなおしてDolby Atmos対応させたものだ。
ただ、まだごくわずかではあるが、Dolby Atmosを前提に作曲・制作した作品も登場してきている。以前、DIYでDolby Atmosスタジオを作り上げた方を紹介したことがあったが、大資本のメジャーレーベルより、インディーズや個人レーベルのほうが、Dolby Atmos対応への動きは活発化しているようにも思える。
そうした中、3月21日に「夏澄Kasumi」という音楽ユニットがDolby Atmos作品3曲をリリースする形でデビューしている。楽曲の名義においては「春水、秋都による音楽ユニット」となっているが、そのプロデュースをしているのは、関西大学の社会学部・メディア専攻 教授である三浦文夫氏。その三浦氏と、ミックスを行なったスタジオユーのチーフエンジニア、湯原大地氏に話を伺うことができたので、どのように制作したのかなどを紹介していこう。
関西大学教授がプロデュースした音楽ユニット
今回のインタビューは、三浦氏から夏澄Kasumiデビューに関する情報をいただいたのがキッカケだ。
三浦氏は、以前「第780回“スタジオのど真ん中で聴く音”を再現したアルバムはどのように生まれたのか?」という記事での取材でお会いしたのが最初。元電通でradikoを考案・実用化してきた人物としても知られ、10年前からは関西大学で教えている。その一方で、音楽家としても長年活動を続けており、以前の記事においては南佳孝氏のアルバム「Dear My Generation」のプロデューサーとして話を聞いていた。
その三浦氏がプロデュースした今回の夏澄Kasumiのデビュー作品である「プラネタリウム」、「特別なオレンジ」、「パサージュを抜けて」の3曲は、三浦氏自身が作曲や編曲、演奏にも携わっている。
立体的に聴くことができるイマーシブオーディオ作品に仕上げることを前提に作ったとのことで、Apple MusicおよびAmazon Musicの空間オーディオとして、3月21日より配信がスタートしているが、それと同時に、Spotify、LINE MUSIC、AWAなどでもステレオでのストリーミング配信を行なっている。またYouTubeでもミュージックビデオが公開されているので、どんな楽曲なのか雰囲気はこれでわかるはずだ。
一方、全曲ステレオのハイレゾミックスも作成しているため、moraにおいては96kHz/24bitのFLACでのダウンロード販売も行なっている。
さて、この3曲、どのように作っていったのか、三浦氏に直接お会いしてインタビューするとともに、エンジニアの湯原氏にもその場にオンラインで参加していただいたので、いろいろと伺ってみた。
立体音響の楽曲を手掛けることになった背景
――以前、南佳孝さんの5.1ch作品の際に、お話を伺いましたが、改めて三浦さんがイマーシブオーディオに携わるようになった経緯などをお聞かせください。
三浦氏(以下敬称略):大学では、音楽や映像制作の実習などを担当したのですが、たまたま知り合ったエムアイセブンジャパンの会長である村井清二さんと、音響のこと、電子楽器のことなどをお話し、大学でのことを相談したところ「今からやるならイマーシブだよ。できるだけ汎用的な立体音響を考えたほうがいい」と言われたのがスタートです。
村井さんが関西大学の出身でもあったことから、いろいろと協力をいただき、2016年に7.1.4chの関西大学ソシオ音響スタジオを作り、さまざまな活用を行なってきました。今回、レコーディングやミックスをお願いした湯原さんもその流れで紹介してもらいまいた。また、当時、毎日放送に在籍されていて、現在はWOWOWの入交英雄さんにも、協力していただき、入交さんの録音したイマーシブ作品を、スタジオで再生してみたり、関西大学の博物館にある蓄音機を立体的に録音してもらい、それをスタジオで再現してみる……といったことも行なっていました。
――その当時からDolby Atmosでエンコード、デコードなどを行なっていたのですか?
三浦:Blu-rayの映画作品などでは、Dolby Atmos対応のものが出始めていましたが、まだ簡単にDolby Atmosエンコーダーなどを使うことはできなかったので、Pro ToolsやNuendoを使ってマルチで録音し、それをチャンネルアサインして、7.1.4に展開していくしかなく、もっと汎用的に立体音響を実現するにはどうすればいいのだろう……とリサーチしていました。
そうした中、オーストリアのグラーツ国立音楽大学で開発されたフリーの立体音響構築プラグイン集「IEM Plug-in Suite」をエムアイセブンさんから教えてもらい、これを使った作品作りに取り組んでみました。その際はStudio Oneでレコーディングを行ない、そこからパラで出力し、Reaper+IEM Plug-inでチャンネルアサインをする、といった作り方をしていました。
――その延長線上に、南佳孝さんの5.1ch作品のプロデュースがあったのですか?
三浦:そうです。それまで、立体音響って、あくまでもその場のライブ感を切り取る使い方が主なのかな、と思っていました。実際、ポピュラー音楽を立体音響で表現するものがほとんどなかったですから。そこで、イマーシブで作ってみようとチャレンジしたのが、南佳孝さんのアルバムでした。
チャンネルベースで立体音響に仕上げたのですが、それを流通させる術がなかったので、5.1chという形にしました。実は、一部では知られていたのですが、e-onkyo musicで配信したあのアルバムは、Auro 3Dのデコーダーを使うことで、ハイトチャンネルも加わって再生できる仕掛けになっていました。
――今回の夏澄Kasumiは、どのような経緯で制作することになったのでしょう。
三浦:その後も大学の学生たちとさまざまな取り組みをしたり、昨年はKOYUKIというカントリーミュージックをルーツに持つソロギタリストをプロデュースしてデビューさせるなど、結構いろいろなことをしてきました。
そんな中、昨年Apple MusicがDolby Atmosに対応し、エンドユーザー向けに立体音響のディストリビューションができるようになったのは衝撃でした。ずっと立体音響に取り組んできたので、ついに出口ができた、という印象です。大学でも、これに向けた制作ができるようにしようと取り組む一方、自分でも作品を手掛けようと思いました。
システム的にもPro ToolsのUltimateを導入するとともに、Macもよりパワーのあるものに変え、Dolby Atmos、Auro 3D、Ambisonics、さらには360 Reality Audioにも対応できるような制作環境を整えつつ、進めていきました。配信のアグリゲーターはNexToneにお願いしていたのですが、NexToneからも、「Appleが空間オーディオのコンテンツを求めているけれど、都内のスタジオだと、Dolby Atmosをミックスできるスタジオや、それに精通したエンジニアがあまりいない」といったことを聞いていました。それであれば、以前からいろいろ一緒にやっていた湯原さんに協力してもらって作ろう、ということになったのです。
――湯原さんは、立体音響関係にずっと携わっているのですか?
湯原氏(以下敬称略):私はずっとStuderのアナログテープで録音し、アナログミキサーを使って、アナログミックスして……という世界で生きてきました。そうした中、関西大学のソシオスタジオの設備に触れて立体音響に興味を持ち、AmbsonicsができるIEM-Pluginを勉強するところから入ったので、デジタルでの経験はそれほどないのです。
Dolby Atmosの楽曲はどのように生まれたのか?
――今回のレコーディング~ミックスまでの流れを教えてください。
湯原:レコーディングは関西大学のソシオスタジオで行なっています。ここではRMEのOctaMic XTCというマイクプリを通して録り、ここからそのままMADIで飛ばしてPro Toolsに入れています。
三浦:バックトラックは私がStudio Oneで作っています。ソフトウェア音源だけじゃなく、アナログシンセを使ったり、ハードウェアのドラムマシンを使うなどしてStudio Oneで録音しています。ボーカルはエディットがしやすいPro Toolsで録音した上で、湯原さんのところに渡しています。
湯原:それらをPro Toolsでまとめた上で、各チャンネルをNEVEのコンソールに立ち上げて、アナログでEQをかけた上で、それを再度Pro Toosへアナログでバウンスしていきました。またリバーブは「EMT-240」というプレートリバーブを通しています。最終的にステレオミックスしたものをStudio One 5に96kHz/32bitで入れてミックス確認を行ないました。ここでバランスの微調整を行なったり、ボーカルの上げ下げを行なうなどしています。
湯原:そのあとにマスタリングスタジオに持っていき、ステレオとして完成させています。ここではStudio Oneの音をRMEのUCXからDAして出し、そのアナログを「Studer A820」のアナログテープ、Fairchildの「MODEL 670」、「PULTEC EQ」を使うなど、できるかぎりアナログな処理をして完成させています。
――なるほど、完全にアナログな世界ですね。でも、これはステレオのミックスであって、イマーシブではないですよね?
三浦:その通りです。イマーシブでの音作りは考えながらですが、先にステレオで完成させてから、イマーシブで再構築するという流れです。ステレオにおいてはStudio Oneに持って行なっていますが、NEVEの卓を通した音や、EMT-240のリバーブの音なども、すべてPro Toolsに録ってあるので、これらを使うことで、ステレオミックスでの世界観をそのままにイマーシブに仕上げていくのです。
湯原:パンナーとしてドラム関係はPlugin AllianceのDear Reality dearVR PROを使い、軽くリバーブを馴染ませながら処理しています。また、Sound ParticlesのSpace Controllerもフル活用しています。これはiPhoneをリモコンとして使い、Bluetoothを介してパンを振っていくというもので、立体空間でのパンニングには非常に便利に使えました。また、Dolby Atmosに対応したFLUXのIRCAM VERBでホールリバーブ処理なども行なっています。
三浦:基本は2chのステレオミックスの世界観を変えずに、多少包み込まれるようにする形でイマーシブにしています。ストリングス系とか、白玉の音符を広げていき、シーケンスパターンを上のほうにくるようにするなどして空間を作っていくのです。
「プラネタリウム」などは、まさにプラネタリウムみたいに、空でチカチカするといいな、といった感じです。ただ、あんまりギミックはやりすぎないようにしています。音の移動とかは最小限に抑えつつ、基本的にはボーカルとベーストラックをしっかり中央において、それを包み込むような音作りをしているのです。最初から全部が音に包まれて埋まってしまうと分かりにくいのですが、シンプルに作りながら、急に、ガーっと広がると効果が見えやすいですね。
――こうした音作り、音の配置はどの時点で決めていたのでしょう。
三浦:作曲する時点から考えながら、試行錯誤を繰り返して作っていきました。これまである多くのDolby Atmos作品はもともと2chで作られたものを、ある意味無理やりイマーシブにしていますが、最初からイマーシブにすることを前提に作っていくと面白いものになるのでは、とチャレンジしていきました。
「特別なオレンジ」ではシンプルに作っていますが、オフマイクを後ろに立てて作っています。また、「パサージュを抜けて」はコーラスを立体的にパンニングすることで包まれた感じにしています。これによってコーラスをうまくフィーチャーできたかなと思っています。
――今回、イマーシブで作品を聴いてみて、すごく気持ちいい音に感じましたが、今後はどのような展開を考えていますか?
三浦:ヘッドフォンの空間オーディオだけだと、まだまだイマーシブのすべてが伝わりにくいですが、今後の技術の進展にも期待していきたいところです。一方で、ソニーの360 Reality Audioなどでも、この作品を展開していければ、と考えています。
ADMファイルになっていれば、360 Reality Audioへの展開もしやすいのではないかと期待するとともに、360 Rality Audioでの制作環境も整えていく予定です。一方、音の面ではAuro-3Dにも期待しています。入交さんが実証実験をしているWOWOWでのサービスも注目しており、いろいろ仕掛けていければと思っています。