藤本健のDigital Audio Laboratory

第765回

プロ野球のラジオ生中継でリアルな3Dサラウンド! 制作現場を見てきた

 一番古い放送メディアであり、大きな進化がないようにも見えているラジオ。でも、そのラジオもテクノロジーとともに進化を続けている。先日、その最先端の一つともいえる放送現場を取材してきた。東京ドームで行なわれた巨人vs阪神 開幕3連戦におけるニッポン放送ショウアップナイターの生中継現場で行なわれた「3Dサラウンド放送」だ。

東京ドームで「3Dサラウンド放送」の中継現場を取材してきた

 ここにはマルチチャンネルのオーディオインターフェイスやPCが持ち込まれ、野球場内の音がリアルタイムに3D処理された上で、3Dサラウンド放送として、オンエアされたのだ。あくまでも開幕3連戦での特別放送であり、普段この3Dサラウンドで野球中継がされているわけではないため、残念ながら今すぐに聴くことはできないのだが、どんな放送が行なわれていたのかレポートする。

ニッポン放送ショウアップナイターの生中継で実施

ラジオ放送で3Dサラウンドが聴ける?

 ご存知の通り、各AMラジオ局が、いわゆるワイドFMとして90.10~94.9MHz帯でのFM放送を行なっている。またインターネット上ではradikoを使って、AMラジオ局もFMラジオ局も放送を行なっている。このワイドFM、radikoに共通するのは放送の音声がステレオだということ。ステレオになることで、音楽番組はもちろんのこと、スポーツ番組もより臨場感を持って放送を楽しめるようになったわけだが、そのステレオ放送をさらに発展させたのが、先日行なわれた3Dサラウンド放送だ。

 3月30日、31日、4月1日と3日連続で行なわれた東京ドームからの生中継を当日、もしくはradikoのタイムフリーで聴いた方であれば、その立体感に驚かれたかもしれない。CMから生中継に移る際には「巨人対阪神、今日も3Dサラウンド中継。ワイドFM、radikoをヘッドフォンやイヤフォンでお聴きください」というアナウンスが流れ、実際普通のヘッドフォン、イヤフォンで聴くだけで、普通のステレオ放送とは明らかに違う、まさに臨場感あるサウンドになっていたのだ。

3Dサラウンド中継は、3月30日~4月1日に実施された

 その3Dサラウンドのキーを握っていたのは、以前にもこの連載で紹介したことのあるHPL(Head Phone Listening)という技術。立体音響システムなどを手掛ける会社、アコースティックフィールドによるエンコード技術で、たとえば5.1chとか9.1chといったサラウンドを2chのヘッドフォンで聴こえるようにするというものだ。

 筆者が東京ドームに取材に行ったのは、最終日の4月1日。試合が始まる3時間前にバックネット裏にあるニッポン放送の放送席を訪れて、その様子を見せてもらうとともに、球場内に設置されているマイクなどを案内してもらった。

ニッポン放送の放送席

 ニッポン放送の技術局放送技術部の担当副部長 仁井田雅俊氏によると「今回は3日間連続で3Dサラウンド放送を行ないますが、実は最初にこれを行なったのは2016年夏で、横浜スタジアムで行なっています。また同年の日本シリーズにおいて広島でも2試合放送したことがありました」とのことで、すでに実績のある放送。こうした放送が行なわれたもともとのキッカケは、アコースティックフィールドがHPLを紹介するために、ヘッドフォン祭(中野サンプラザで開催されているフジヤエービックのイベント)に出展した際のブースに、知人の紹介でHPLを知った仁井田氏が立ち寄ったのがスタートなのだとか。

ニッポン放送 技術局放送技術部 担当副部長 仁井田雅俊氏

 「ここ何年か、毎回ヘッドフォン祭に出展していて、ブースではHPLのリアルタイムエンコードのデモをしているんです。そこで知り合った仁井田さんと、何度かお話をさせていただいた結果、実際の放送に採用していただいたのは、本当に嬉しいことでした」と話すのは、アコースティックフィールドの代表取締役 久保二朗氏。

アコースティックフィールド 久保二朗代表取締役

 比較的、技術に関して保守的というか、堅いイメージのある放送業界において、ニッポン放送は「ラジオナイター新時代。今こそ! プロ野球!!」と言うキャッチコピーのもとアグレッシブに動いているのか、いち早くHPLの面白さを見出し、実際の放送に取り入れたのだ。もちろん、その背景には、HPLがかなりしっかりした技術として実績があること、またヘッドフォン、イヤフォンでなく、普通のスピーカーで聴いても違和感なく聴こえるシステムであることも放送において重要であったことは言うまでもない。

試合中の様々な音がリアルに聴こえる

 では、実際の放送で、どのようなことが行なわれていたのが、もう少し掘り下げてみていこう。

 今回の3Dサラウンド放送では、普段の放送が行なわれている放送席に、久保氏が機材を持ち込んで3Dサラウンド化を行なっていたのだが、まずは普段がどうなっているかというところから確認していこう。

放送席に機材を持ち込んで3Dサラウンド化

 野球中継には、さまざまな音源が入ってくる。それを表したのが下の図だ。パラボラと書かれているのは、キャッチャーのすぐ後ろにある左右のパラボラマイクを使って、ミットで球を捕る音や、バットで球を打つ音などを捉えるものだ。

野球中継の音声
キャッチャーの後ろ側にパラボラマイクがある

 外野スタンドLおよび外野スタンドRは、3塁側、1塁側それぞれの観客席の上部に設置されたマイクで応援の音などを捉えるもの、さらにスコアボードLとRはセンターの奥、まさに球場の一番奥の上に設置されているマイク、またバックスクリーンLとRは、その下にあるバックスクリーンのところに設置されているものだ。

バックスクリーンのところにもマイクを設置

 一方、ピンポンとあるのは、各球場の試合状況などを伝える際に鳴らすチャイムのことで、これをアナウンサーが自ら押して操作するものとなっている。これらのマイク位置とサラウンドミックスの関係を球場内の配置で表すと下の図のようになる。

アナウンサーが操作すチャイム
マイク位置とサラウンドミックス

 そして、アナウンサーのマイク、解説者のマイクがメインマイクとして用意されているほか、1塁側から実況でアナウンスするマイク、同じく3塁側からアナウンスするマイク、また監督インタビュー用、ヒーローインタビュー用、ウグイス嬢の声を拾うマイク、さらには会場に鳴り響くPAを捉えるマイクなど、さまざまな音源がある。

 これを普段は放送席にいるサウンドエンジニアがヤマハのミキシングコンソールQL1を用いてステレオ2chにミックスする。この日は、ミックスゾーンの大坪秀嗣氏がその操作を担当していた。

ヤマハのミキシングコンソールQL1
ミックスゾーンの大坪秀嗣氏

 その一方で、先ほど挙げたパラボラからピンポンまでの10chの信号がマルチボックスを経由してFerrofish A16 MK-IIというAD/DAコンバータ経由でオーディオインターフェイスRME MADIface XTに入り、これがPCへと送り込まれていた。

FerrofishのA16 MK-II(下)やRME MADIface XT(上)を使用してPCに入力

 Ferrofishには、この10chのほかに、アナウンサーのマイクなどをミックスしたもの、さらにはPA音などをミックスしたものを加えた計12chが入り、久保氏が持参したノートPCへと入っていく。詳細は後述するが、このPCで3Dサラウンドミックスがされ、2chのステレオ信号が生成される。そのステレオ信号が切り替えBOXを経て、放送へと流れていくのだ。

 お気づきの方もいると思うが、先ほどの大坪氏が操作した球場内のミックス結果は使われず、久保氏側で作った信号が放送に乗る形になっている。それでも大坪氏が操作を続けているのは、いざというときのためのバックアップ体制。万が一にでも、久保氏側でのシステムトラブルなどが起きたら、完全な放送事故になる。そうしたことが起こらないよう、いつでも通常放送へスムーズに切り替えられるように、久保氏がミックスした音はデジタル専用線で放送局側に送られ、大坪氏によるミックスは光回線VPNを使って送られる。万全の体制をとっているわけだ。もっともこの3日間、切り替えを行なうようなトラブルは発生せず、すべて久保氏側の3Dサラウンドの信号で放送された。

大坪氏によるミックスは光回線VPNを使って送る

3Dサラウンドはどのようにミックスされている?

 では、一番の関心事である、久保氏のところで、何が行なわれていたのかを見ていこう。「入ってきた12chの信号を元にして、まず平面サラウンド7ch+ハイトサラウンド4chの立体的な音にミックスしています。それをリアルタイムにHPLのステレオ信号にエンコードするエンジンを使って処理しているのです」と久保氏は語る。つまり、まずは入力してきた信号を7ch+4chという空間の中に配置し、それをHPLのエンコーダで2chに変換しているというわけだ。

12chの信号を元に、平面サラウンド7ch+ハイトサラウンド4chの立体的な音にミックス

 久保氏が持つHPLのシステムは5chだろうと、11chだろうと、22chであっても、再生するスピーカーの位置さえ決まれば、事前にパラメータを設定することで、リアルタイムにステレオ2chに変換することができるようになっている。そのため、現場で重要になるのが、いかにして7ch+4chという立体空間にマッチする形でのミックスを行なうかということなのだ。でも、この空間というのは、東京ドームを再現すると考えればいいのだろうか?

 「どういう空間を作るのかというのが、この放送の面白さではあるのですが、もし東京ドームそのものの3D空間にしたら、リスナーの方は、ピッチャーマウンドにいるような音になってしまいます。もちろん、それも一つの方法ではありますが、やはり違和感が出てしまいます。それならバックネット裏から見ているような雰囲気の音を作り上げていくのが自然でしょう」(仁井田氏)

 ただ、それならダミーヘッドをバックネット裏の座席に置いておくというのでも、よさそうに思う。仁井田氏は「確かにダミーヘッドなら非常にリアルにはなりますが、隣で騒いでいる人がいれば、その声が入ってしまうし、ビールを売りに来る声も真横を通ることになります。これはリアリティではあるけれど、エンターテインメントではありません。だから、東京ドームの迫力ある雰囲気は存分に表現しつつも、野球中継として楽しめるように仮想的な空間を作る、一種のVRなんです」と説明する。

 「具体的にいうと、立体的に見せつつも、実況や解説の声は前にいないと不自然だし、あくまでもこれが中心となります。その上で、1塁側で応援が盛り上がれば右から聴こえてきて、バッターが打てば目の前でカキーンと音が響くように感じられる、そんな空間を作っています」と久保氏は話す。

 とはいえ、そのサラウンドミックスの操作は、なかなか簡単にはいかないようだ。「実際に現場に行ってみないとどういうバランスにするべきかがまったくわからないんです。たとえば、3塁側の外野スタンドマイクのすぐそばに応援団がいれば、すごく大きな音で拾ってしまうし、1塁側も応援団の位置が違えば、バランスも大きく変わってきます。しかも単純にL/Rのステレオバランスだけでなく、立体的にミックスしていくので、試行錯誤の繰り返しです。初日は4回の裏くらいまではなかなか安定しなかったのも事実です」と久保氏。また、以前に行なった横浜スタジアムは屋根がないのに対し、東京ドームの場合、屋根で反射があるので、音の入り方もかなり異なるとのこと。ただ、屋根の反射があって音が抜けない分、空間演出はしやすいそうだ。

 ちなみに、このミックスでは、サラウンドパンで位置決めするほか、EQとディレイで操作をしていく。当然大きな空間なので、バックネット裏に届くリアルな音と、外野席のマイクで拾う音には時間差があるから、これをディレイで調整をしていくわけだ。これを現場で処理していくのだから、なかなかの力量が求められる。

EQ
ディレイ

 現状、そうした操作ができるのは久保氏一人だけ。そのため、久保氏が何らかの理由で現場に来られなければ3Dサラウンド放送は実現できなくなるのが、大きな問題点といえる。もちろん、別のラジオ局から同じ日にオーダーがあっても応えることはできない。「HPLを使った放送に関して、本格的にニーズが出てくれば、システムを納品することは可能ですし、多少時間はかかるかもしれませんが、操作方法を教育することも可能です。早くそうなってくれると嬉しいですね」と久保氏は語る。

 そういう意味では、この3Dサラウンド放送は、まだ実験段階ともいえるかもしれないが、ラジオという音だけのメディアで音ならではの楽しさを存分に味わえる放送であることも事実。今後もっと広く採用されるようになってくれるとラジオはまだまだ面白くなりそうだ。

藤本健

 リクルートに15年勤務した後、2004年に有限会社フラクタル・デザインを設立。リクルート在籍時代からMIDI、オーディオ、レコーディング関連の記事を中心に執筆している。以前にはシーケンスソフトの開発やMIDIインターフェイス、パソコン用音源の開発に携わったこともあるため、現在でも、システム周りの知識は深い。  著書に「コンプリートDTMガイドブック」(リットーミュージック)、「できる初音ミク&鏡音リン・レン 」(インプレスジャパン)、「MASTER OF SONAR」(BNN新社)などがある。またブログ型ニュースサイトDTMステーションを運営するほか、All AboutではDTM・デジタルレコーディング担当ガイドも務めている。Twitterは@kenfujimoto