藤本健のDigital Audio Laboratory

第981回

ソニーのモニターヘッドフォン&HRTF測定から“GPUオーディオ”まで。NAMM 2023

4月13日から15日までの3日間、米国カリフォルニア州のアナハイムにて、世界最大の楽器展示会「The 2023 NAMM Show」が開催された。通常は毎年1月開催だが、コロナ禍でのスケジュール変更で、今回は4月開催となった。しかし、世界中から多くの楽器メーカーが集まり、ディーラーや楽器店など楽器ビジネスの関係者たちで大いに盛り上がっていた。

カシオブース

会場の展示をじっくり見て回ると、とても3日間では回り切れないほどの規模とブース数なのだが、気になる技術を見ることができたので、うち3つをピックアップして紹介してみたい。

コロナ禍の影響で規模は縮小。キラリと光る3技術をピックアップ

今回のNAMM Show、実は会場取材がメインいうわけではなかった。筆者とマリモレコーズ社長の江夏正晃氏とで展開している「オトトーク」というYouTube番組収録が主目的であったのだが、その収録の合間に会場を見て回った。

筆者(写真左)とマリモレコーズ社長の江夏正晃氏

正直なところ、例年と比べるとかなり規模が小さくなったなと感じた。大手メーカーでいうと、ギブソンやフェンダーが出展を見送っていたし、日本からはローランドやコルグも不参加。JBL、AKG、SoundCraftなどのブランドを擁するハーマン・オーディオも出ていなかったため、展示スペースがコロナ前の2/3程度になった印象。

以前は地下にガレージメーカーが数多く並び、ここに飛び切り面白い“金の卵”があったりしたわけだが、その地下ブースもなくなったのは残念なところ。会場で出会う知人との会話は「何か面白いものあった?」「いや、今年は……」というやりとりばかり。とはいえ、お! と思うものもいくつかあったので、筆者の独断と偏見ではあるが、気になったものを3つ取り上げたい。

Analog Devicesの低遅延伝送システム「A2B」

1つ目に挙げるのは、Analog Devicesが展示していた「A2B」というシステムのデモだ。

「なぜ、楽器の展示会にAnalog Devices?」と思う方もいると思うが、これまでもNAMMには定期的に出ていたという。ご存知の通り、同社はDSPやAD、DAコンバータなどのICを作るメーカーであり、楽器そのものを作るメーカーではないのだけれど、今回、同社がこれまで培ってきたA2B(Automotive Audio Bus)という車載用の技術をベースに、オーディオや楽器の世界で使えるユニークなシステムを発表していた。

具体的には、LANケーブルと同じRJ45のケーブルを使ってノード間を接続し、オーディオ、そしてMIDI 2.0を伝送できるというもの。“MIDI 2.0 over A2B”として昨年のNAMMですでに発表していたものをブラッシュアップしたものだという。

ノード間接続はRJ45のほか、ツイストペアケーブルも利用可能で、ノード間は最長30m。それをデイジーチェーンで数珠繋ぎすることが可能で、最大16ノードまで接続可能。その最大の長さは、300mまで行けるとのことだった。

ここに48kHz/24bitであれば、32チャンネル伝送でき、上り下り混在可能。つまり全部上りで32chでもいいし、上り16chと下り16chでもいいというわけ。それに加え、MIDIの新規格であるMIDI 2.0の伝送も併せて行なえるという。

しかもデータ伝送だけでなく、PoEのように電力もこのケーブルで伝送でき、最大50Wまでの供給が可能になっているのだ。驚くべきポイントはレイテンシーは50μsecと超低遅延であること。これはすべてのノードが同期していて、ノード間でのズレはないという。

NAMMでの展示では、ADやDA、またMIDI 1.0をMIDI 2.0に変換するデバイスなどが接続されており、ここで実際に音を出したり、MIDI信号を送るデモが行なわれていた。

ある意味、Danteとも似た技術だが、Danteと競合するというより「協調していきたい」とのこと。もっとも、Analog Devicesはあくまでもチップメーカーで、実際の機材開発はオーディオ機器メーカーや楽器メーカーがA2Bのチップを採用して行なうことになる。Danteと比較すると圧倒的に安いシステムになるとのことなので、今後どこのメーカーがどんなデバイスを出してくるのか期待したい。

GPUをオーディオ処理に使う?!「GPU Audio」テクノロジー

2つ目に取り上げるのは、“GPU Audio”というシステム開発会社が生み出したテクノロジーだ。

その名前からも想像できるとおり、GPUをオーディオ処理に利用しようというもの。従来GPUは画像処理用には大きな処理能力を発揮していた一方で、オーディオの処理には使われてこなかった。オーディオ処理用には“DSP”が利用されてきたわけだが、その最大の理由はレイテンシーにあった。

昨今のGPUの処理能力は一般的なDSPよりずっと高いにも関わらず、GPUが利用されてこなかったのは“GPUはグラフィックス処理を前提にしたもの”であったため、音の処理に使うと、そのデータ転送とバッファ処理のために大きな遅延が発生してしまい、使い物にならなかったのだ。GPU Audioはそこにメスを入れ、データ転送タイミングを変える技術を作ることで、1msec以下のレイテンシーに抑えることを可能にしたのだ。

もちろん、これを実現させるにはオーディオ処理を行なうソフトウェア、つまりプラグインがGPU Audioのシステムをサポートするように作り直す必要があるが、プラグインメーカーがGPU Audio提供のSDKを用いることで、比較的容易に対応させられる、という。

現在、NVIDIAとAMDのGPUに対応できるシステムとなっているが、AppleのM1/M2のGPUへの対応もまもなく行なうとのことなので、多くのユーザーに大きな恩恵をもたらす可能性を持っている。

GPU Audioの威力を試すことができるコンボリューションリバーブやディレイ、フェイザー、コーラスなどが、GPU Audioサイトから無料で入手できるようになっているので、興味のある方はぜひ試してほしい。

まだこの記事を書いている現在、旅先にいて試せていないが、どんなものなのか自分でもチェックするとともに、今後、各プラグインメーカーやDAWメーカーがこのテクノロジーをどう評価するのか注目していきたい。

空間オーディオの世界が大きく変わる? ソニーのHRTF測定サービス

そして3つ目は、すでにNAMM直前に国内でも報道発表されているソニーの「360 Virtual Mixing Environment」測定サービスだ。

ご存知の通り、ソニーは360 Reality Audioという立体音響を展開する一方、コンテンツ制作者向けには「360 Walkmix Creator」というプラグインを提供。プロのスタジオでのコンテンツ制作が進むとともに、DTMユーザーでも360 Reality Audioのコンテンツ制作が可能になっている。

この360 Reality Audioはヘッドフォンで再生しても非常に立体的に聴こえるのが大きなポイントであり、Dolby Atmosなどと比較しても優位に立つポイントと思っている。

この再生においては、事前にスマホアプリを使い自身の耳を撮影、データベースと照合した上で自分にマッチしたHRTFデータを入手することで、非常にリアルな音になるのがユニークなところだが、それをさらに大きく進め、自分のHRTFを正確に計測するというのが、前述した測定サービスというわけ。

この測定サービスを行なうのは、ソニーがパートナーシップを締結した日米3か所のスタジオ。具体的には、東京のMIL Studio、ニューヨークのThe Hit Factory、そしてロサンゼルスGold Diggers Soundで、日本のMIL Studioはメディア・インテグレーションが運営している。

この測定においては、先日発表され5月12日発売予定の背面開放型モニターヘッドフォン「MDR-MV1」を使うことが前提になっている。

背面開放型モニターヘッドフォン「MDR-MV1」

この測定データを用いて360 Reality Audioのコンテンツを再生すると、イマーシブ環境のスピーカーから鳴っているのか、ヘッドフォンで鳴っているのか、判別できないほどリアルになる。また実は360 Reality Audioに限らず、Dolby Atmosコンテンツなどでも利用できるようになっているようなのだ。

NAMMでは、会場に用意した簡易スタジオにて、その測定と、測定結果を使った再生デモが行なわれており、実際試した来場者達を驚かせていた。

耳の中に特殊な測定用マイクを入れる

測定には耳の中に特殊な測定用マイクを入れ、スピーカーからノイズやスイープ信号を出す形で行なわれる。実は、筆者は以前に同じ測定を行なったことがあったので、2度目の体験ではあったが、測定後に音を聴くと、本当にヘッドフォンで鳴っているのか、スピーカーから鳴っているのか認知できないレベル。まさに後ろから、斜め前から鳴っていることをハッキリ知覚できるクオリティで、従来のバイノーラルサウンドが「子供だましだったのでは?」と感じるレベルのリアルさなのだ。

今回のデモでは、測定結果のデータを持ち帰ることはできないが、実際のサービスではそのデータとともに、プレーヤーソフトがセットでもらえる形になっている。

メディア・インテグレーションに問い合わせたところ、まだ実際のサービススタートや価格は決まっていないが、6月ごろのスタートを目標に、価格は1プロファイルあたり税別65,000~70,000円前後を予定しているとのこと。複数人一緒に測定する場合は割引も検討しているとのことだが、これを一般開放することは画期的な出来事ではないかと思っている。

もちろん、この金額は安いものではないし、MDR-MV1も必要となるので、相応の価格にはなるが、これによって、ヘッドフォンだけで理想的なイマーシブ環境と同じ音を再現できることを考えると安すぎるかもしれない……と感じるほど。

このプロファイルデータを360 Walkmix Creatorに読み込ませることで、理想的な制作環境が作れることを考えると、まずは制作者側が利用するものと思うが、“HRTF測定”が身近になってくると、空間オーディオの世界が大きく変わってくるのではないかと期待するところだ。

このMIL Studioでの360 Virtual Mixing Environment測定サービスについては、改めてレポートしようと思っている。

以上、巨大なNAMM Show会場の中から、楽器そのものではない3つの技術を取り上げてみたが、いかがだっただろうか? おそらく、他メディアのNAMM Showレポートとはかなり趣の異なるものだったとは思うが、個人的にもこれら3つについては、今後も注視していきたい。

藤本健

リクルートに15年勤務した後、2004年に有限会社フラクタル・デザインを設立。リクルート在籍時代からMIDI、オーディオ、レコーディング関連の記事を中心に執筆している。以前にはシーケンスソフトの開発やMIDIインターフェイス、パソコン用音源の開発に携わったこともあるため、現在でも、システム周りの知識は深い。 著書に「コンプリートDTMガイドブック」(リットーミュージック)、「できる初音ミク&鏡音リン・レン 」(インプレスジャパン)、「MASTER OF SONAR」(BNN新社)などがある。またブログ型ニュースサイトDTMステーションを運営するほか、All AboutではDTM・デジタルレコーディング担当ガイドも務めている。Twitterは@kenfujimoto