藤本健のDigital Audio Laboratory

第893回

ソニー「360 Reality Audio」の作り方。プラグイン299ドルで手軽に制作!?

4月16日にサービス開始した、ソニーの立体音響技術を活用した新しい音楽体験「360 Reality Audio」。

連載の第890回では、ソニー担当者に技術的側面を尋ねるインタビューをお届けしたが、サービス開始に合わせ、360 Reality Audioのコンテンツ制作者向けツール「360 Reality Audio Creative Suite」がリリースされた。

制作者向けツール「360 Reality Audio Creative Suite」

360 Reality Audio Creative Suiteは、Audio Futuresが現在299ドルで販売している、プラグインソフトだ。Mac、およびWindowsのVST3、AAX環境で動くプラグインで、同ツールを使うことで360 Reality Audioのコンテンツを作ることができる。

実際にどのようなことが出来、どのように使うツールなのか。なぜ日本のソニーではなく米国の会社がソフトウェア開発しているのかなど、気になることもいろいろある。また前回のインタビュー時には「制作時には360 Reality Audioで規定する13chのモニタースピーカーが必要」とのことだったが、本当に13chのスピーカーを必要とすると、多くのユーザーにとっては非現実的なものになってしまうそう。ヘッドフォンで立体的にモニターすることはできないのだろうか。

今回は360 Reality Audio Creative Suiteを試す事前レクチャーも兼ね、ソニーの担当者2人に同ツールの概要を聞いた。対応してくれたのは、ソニー ホームエンタテインメント&サウンドプロダクツ事業本部 V&S事業開発部の山内裕司氏と花田祐氏の両名だ。

ソニー株式会社 ホームエンタテインメント&サウンドプロダクツ事業本部 V&S事業開発部の山内裕司氏(写真左)と花田祐氏(右)

360 Reality Audio Creative Suiteの概要

――360 Reality Audio Creative Suiteの機能の話に入る前に、このソフトがソニーからではなく、海外のAudio Futuresという会社から発売されることになった経緯などを簡単に教えてください。ソニーの関連会社なのですか?

山内氏(以下敬称略):今回リリースされた360 Reality Audio Creative Suiteは、アメリカのワシントン州シアトルにある、Virtural Sonicsが開発したソフトで、販売をAudio Futuresが行なっています。

販売サイトでは日本語もサポートされていますが、当社と資本関係などはありません。Virtural Sonicsはもともとローランドのプラグインなどを開発してきた会社でして、そこが今回360 Reality Audioのプラグインを出したという形です。

360 Reality Audio Creative Suiteは299ドルで販売されている

山内:開発とはいえ、360 Reality Audioの信号処理や、音質に関する部分はすべてソニーから提供し、それをプラグインのツールとして仕立てているのがVirtual Sonicsです。餅は餅屋ということで、われわれがプラグインを開発したり、販売・サポートをするよりも、プラグインの開発や販売に慣れた会社が担当する方が上手くいくはずだ、という判断からこのようなチーム編成でツールをリリースしました。

ソニーの山内裕司氏

――先日、360 Reality Audioの開発話を伺った際、ソニーミュージックなど国内外のスタジオで360 Reality Audioのコンテンツを作る際に使ったのは従来のソニー製ツールとのことでしたが、これとはまったく別のツールということですね。

山内:その通りです。従来のソニー製ツールは「Architect」という名称で、あくまでも社内での開発目的に作ったもので、スタンドアロンで動作していました。このため、DAWからこのソフトにインポートしてもらい、編集作業をする。もしEQやコンプなど何か修正があったら、DAWに戻って作業しなければならないため、やや使いにくい部分がありました。

360 Reality Audio Creative SuiteはDAWで完結できるようになっていますし、UI的にも断然使いやすくなりました。価格的にも299ドルと手ごろなものですし、ドングルも不要。ダウンロードしてインストール、ユーザー登録すれば手軽に使うことができます。

――販売サイトのほうを見ると、AAXとVST3に対応と記載されているものの、動作確認されているDAWが「Pro Tools」と「Ableton Live」となっています。「VST3対応なのに、CubaseやNuendoではなくAbleton Live?」と思ってしまいましたが、これはどういうことなのでしょう。

山内:発売時点のバージョンでは、Pro ToolsとAbleton Liveをサポートしました。順次Cubase、Nuendo、Logic Pro、Reaperなどをサポートしていく計画です。動作させれば動くケースもあるとは思いますが、まだしっかり検証できていません。コンテンツ制作いただいているスタジオからの要望などに応じ、優先順位を付けた結果このようなサポートの順番となりました。

花田氏(以下敬称略):360 Reality Audio Creative Suiteは各トラックに挿して使うプラグインではあるのですが、いわゆるエフェクトではなく、挿したところから信号をプラグイン側に渡して処理をするという形になっています。いったんプラグインに作業が移ったら、あまりDAW側に戻らずに作業ができるのも大きな特徴です。数多くのトラックにプラグインを挿しても見えているのは1つで、プラグイン側からはDAWのトラック名などが見える形にもなっています。

Pro Tools上での360 Reality Audio Creative Suite作業画面

花田:実は、そこが各DAWとの相性における問題が発生するところでして。信号的に流れても、トラック名が見えないとか、文字化けする、といったことが起きるケースがあります。場合によっては、プラグイン側だけでは修正できず、DAWメーカーに協力してもらう必要があるケースもあります。こうした細かな修正は、優先順位、時間との兼ね合いで、徐々に進めているところです。

ソニーの花田祐氏

――WindowsとMacとでは、何か違いはありますか?

花田:Pro ToolsとAbleton Liveという2つのDAWにおいては、WindowsもMacも同じように使えるようになっています。Pro Toolsはレコーディングスタジオにおいてはデファクトスタンダードとなっていて、Macが使われているのが大半です。ただ、イマーシブオーディオを使う一部の業界ではWindows上でのPro Toolsが多く使われているため、Windows版も外せないと考えました。また英語OSだけでなく日本語OSでもすべて問題なく使えることも確認できています。いずれにせよ、今後少しずつ対応DAWは増やしていくので、もう少しお待ちいただければと思います。

ツールの機能と使い方。ヘッドフォンで簡易モニタリングも

――ツールの使い方について教えてください。

花田:各トラックにプリフェーダーでインサーションとして挿していくと、それぞれのトラックからの信号がプラグイン側に伝わり、オブジェクトとして球面上に配置されます。どのトラックからプラグインを開いても同じものが見える形ですね。あとはそれぞれのトラックからの信号にColorで色付けし、Gainで音量調整、Azimuthで方位核、Elevationで高さ、Widthで幅を決めていきます。

花田:まずは、静的に配置する形になります。画面を見てもらうとわかるように、後ろから見た3D view、真上から見たTop viewというように、配置を視覚的に捉えられるようになっています。もちろんどの方向から見ているかはマウス操作でクルクル回すことができます。またProTools側のトラックを見てみると一部インサーションしていないものがあります。これはAUXトラックを使い、そこにリバーブをセンドする……といった使い方をしています。つまりエフェクトを使ったウェット音だけを360 Reality Audio Creative Suiteへと送っているわけです。

――このプラグイン側で配置した音は、DAW側には戻さないのですよね?

花田:その通りです。最初、少し不思議に感じるかもしれませんが、ProToolsのプレイバックエンジンで設定するオーディオデバイスと、360 Reality Audio Creative Suite側で設定するオーディオデバイスは異なります。

ProToolsのプレイバックエンジンで設定するオーディオデバイス

花田:ここではPreSonusのStudio 24cというオーディオインターフェイスを使ってモニターしていますが、それを設定しているのはプラグイン側であり、ProTools側は内蔵オーディオを指定している、といった具合です。プラグインから直接音を出してモニターしたり、最終的にはこれをレンダラーを通じてエンコードしていきます。

取材時のモニター環境

――一番気になっているのが再生環境・モニター環境です。先日インタビューさせていただいた際、モニター環境としては上に5つ、中央に5つ、下に3つの計13chのスピーカーを配置してモニターする必要があるとのことで、一般のDTMユーザーにはハードルが高いなと感じました。でも、今のお話からすると、ヘッドフォンでバイノーラルでモニターできるということですか?

花田:ヘッドフォンの話はちょっと後でお話ししますが、スピーカーを使った推奨のモニター環境は13チャンネルです。ただ、13ch接続できるオーディオインターフェイスは少ないので、RMEのMADIFaceなどを使ってMADIで伝送した上で、DACに繋いでスピーカーへ、というケースが多いようです。

山内:Danteを使うというケースもよくあります。確かに推奨は13chなのですが、13chの設置をすることが難しく、手元に5.1chや7.1chのスピーカーを設置する、といったケースも多いと思います。

山内:360 Reality Audioは“LFE”という概念がないためサブウーファーはサポートしていません。あくまでもフルレンジのスピーカーをターゲットとしているので、5.1chの場合は5chとして、7.1.4chなら7+4chとして使う形にはなりますが、その設定でも利用は可能です。すでに持っているマルチチャンネル環境を変えなければいけないシステムではありません。

――最も気になる、バイノーラルのモニタリング環境について教えてください。

山内:これまで360 Reality Audioをミックスしていただいた皆さんも、一般的なリスナーが利用するであろうヘッドフォンと同じ環境でモニタリングしたいと考えていまして、まずはヘッドフォンでモニターしながらミックスし、確認のために13chのスピーカーでも聴くという方が多いようです。

そのままヘッドフォン出力をすると、“平均”のHRTF(頭部伝達関数)でモニタリングすることになります。これは“人類の平均”でのバイノーラルモニタリングになりますが、それなりの効果はあります。デフォルト(平均)以外にも、個人のHRTFを測定したプロファイルを読み込むことができるようになっていますから、各個人に最適化された音で立体的にモニターできます。

――360 Reality Audioのサービスをヘッドフォンで楽しむ場合、スマートフォンで耳を撮影して、プロファイルを作りましたが、同じようにスマホでプロファイルを作れますか?

山内:制作者用ツールに用いるプロファイルは、より厳密に測定するものなので、現時点ではソニーの本社内と、ソニーミュージックの乃木坂でのみ測定できます。

――DAWの音を静的に配置するということでしたが、これを動かしていくこともできるわけですよね。

花田:はい、いろいろと動かすことができるのが、このソフトの醍醐味でもあります。実際このような感じで動かすことができます。

360 Reality Audio CreativeSuite

花田:手動で自由に動かすこともできますし、DAWのオートメーションを使って動かすこともできるので、より正確な軌道で移動させることもできます。オートメーションで矩形波や、ノコギリ波を利用することで、キレイに回していくといったことができるわけです。

――動的にもオブジェクトを動かした上で、360 Reality Audioでのミックスが完成したら、その後はどうするのですか?

花田:ミックス結果をExportという機能を利用してバウンスしていきます。リアルタイムバウンスもできるし、オフラインバランスも可能なので、高速なCPUが搭載されていれば、より早く書き出すことができます。この際、360 Reality AudioのLevel 1、Level 2、Level 3など、どのレベルで出力するかを選ぶことができます。

花田:どのレベルで出力するかで、ビットレートと最大オブジェクト数が異なります。例えば、Level 1は640kbpsで10オブジェクト、Level 3になると1.5Mbpsで24オブジェクトです。オブジェクト数に応じたWAVファイルが書き出されると同時に、samファイルも書き出されます。このsamファイルはメタデータとなっていて、これらをセットでエンコーダーに取り込むことで、360 Reality Audioフォーマットのデータが生成されます。

山内:エンコーダー自体は360 Reality Audio Creative Suiteには入っておらず、現在はWAVファイルとsamファイルのセットを納品する形で配信できるようにしています。今後エンコーダーをどうするかについても現在検討中です。

――エンコードした結果をモニターすることはできますか? それは、制作時にヘッドフォンからモニターした音とは少し違うわけですよね?

山内:エンコードする際に圧縮しますから、直接モニターした音とは少し違ってきます。エンコード結果をモニターするためには別のパートナーが開発した「Artist Connection」というアプリに登録することでストリーミング再生できるようになっています。ここについては、今後また制作者側の意見、要望なども聴きつつ改善していきたいと思っております。

藤本健

 リクルートに15年勤務した後、2004年に有限会社フラクタル・デザインを設立。リクルート在籍時代からMIDI、オーディオ、レコーディング関連の記事を中心に執筆している。以前にはシーケンスソフトの開発やMIDIインターフェイス、パソコン用音源の開発に携わったこともあるため、現在でも、システム周りの知識は深い。  著書に「コンプリートDTMガイドブック」(リットーミュージック)、「できる初音ミク&鏡音リン・レン 」(インプレスジャパン)、「MASTER OF SONAR」(BNN新社)などがある。またブログ型ニュースサイトDTMステーションを運営するほか、All AboutではDTM・デジタルレコーディング担当ガイドも務めている。Twitterは@kenfujimoto