麻倉怜士の大閻魔帳
第35回
今こそクオリティ! ライブ配信の音質アップ大作戦
2020年12月8日 08:00
世界中の名だたるアーティストが、ライブパフォーマンスをしにくくなった2020年。音楽業界やショービジネス界にとっては文字通り厄災の年となってしまった。このような状況下で注目を集めたのは、インターネットを通じたライブ配信だ。遠隔地在住民にとっては、逆にライブへ参加する機会が増えたと言えるかもしれない。
一方でライブ配信はどうしても音質がプアで「現地のグルーヴ感とは程遠い……」と嘆く読者諸兄も少なくないだろう。この状況、オーディオ業界が指を咥えて見ているはずが無い。今回はそんなライブ配信における音質向上の最先端動向を紹介。ネット配信のライブ体験は、もっともっとスゴくなる。
麻倉:オーディオビジュアル趣味において「ネットの絵と音は悪い、画質音質が良いのはパッケージ」というのは、これまで常識として語られていました。OTTをはじめとするネット配信サービスは、多様なユーザー環境で安定してサービスを提供する必要があるため、最低限の通信環境でも動作するデータ量しか送れなかった。配信データのダイエットと効率化に心血を注いだ結果、画質や音質に関わる微小信号はどうしても後回しとされてきたのです。
ところがここにきて、この画質音質という面でネット側の追い上げが激しくなってきました。昨今のコロナ禍で実演機会が激減し、観客の有無を問わずステージのライブ収録・生配信という動きが激増したため「配信の絵と音をもっと良くしようよ」という機運が高まってきたのです。
――業界人として、趣味人として、このムーブメントは非常に喜ばしいです。
麻倉:面白いのは主催者側ではなく、技術屋さんやプラットフォーマー側から、配信内容の品質について問題意識を持っていたということ。アーティストとしてAV品質向上を意識していたのは、私の知る限りでは松田聖子と山下達郎くらいでしょうか。
つまり、従来の生配信はある意味でライブ会場の緊急避難、代替措置的な立ち位置だった。画質音質はまあまあ程度で、“まず絵と音がちゃんと出る”ことが重視されていたため、端的に言ってプアな環境で生配信をやっていた訳です。そもそもこのテのサービスにおける従来の視聴環境と言えば、スマホか、せいぜいパソコンでしたから、情報量をふんだんに盛った贅沢な配信は必要とされていなかった、とも言えるでしょう。
ところがここにきて、スマホやパソコンといった中小画面ではなく、テレビの大画面でライブ配信を観る・シアターシステムで聴くというスタイルが急増しました。言うまでもなくステイホームによる家庭での視聴が激増したためですが、これに合わせて、ホームシアターのオーディオやスクリーンでの上映に耐えるクオリティアップ作戦が急激に立ち上がってきました。
オーディオビジュアルの一大ムーブメントとして、これは私も興味津々。ということで今回は“ハイクオリティ配信最前線・体験”をご報告いたしましょう。
U-NEXT
麻倉:まずは私の大好きな聖子ちゃんから。10月3日に松田聖子40周年ということで、スタジオライブイベント「40th Anniversary Seiko Matsuda 2020 "Romantic Studio Live"」をU-NEXTが独占配信しました。オーディオビジュアル的に、これには歴史的な意味があります。これは「商業配信でここまで出来るぞ!」という、動画配信としては初のクオリティ志向ライブストリーミングなのです。
そもそもUSENを出身母体とするU-NEXTは “動画版有線放送”とも言うべき位置づけで始まった、テレビ画面前提のプラットフォームです。そのため同社のクオリティコントロールは業界内でも高い位置に居ます。
――確かにU-NEXTはサービスの初期段階からテレビ向けのSTBを用意しており、スマホ視聴はテレビ画面の補助・拡張というスタンスを取っていました。
麻倉:そんな同社のライブ配信、従来は720pフォーマットを使用していましたが、今回は1080pでの送り出し。映像ビットレートは従来の7Mbpsからおよそ10Mbpsへ引き上げ、音声も128kbpsからAAC-LCの448kbpsにアップグレードしています。これらは「PREMIUM LIVE EXPERIENCE」テクノロジーとして新たにブランド化したハイグレードパッケージで、その第1弾が今回の聖子ちゃんなのです。同社はサービスを展開するにあたって通信回線の市場状況を調査、途切れないレベルで最大限贅沢なものを選択したとしています。
今回の配信は元々が4K撮影の200Mbpsという、ほぼ非圧縮の様なソース。音声の詳細は不詳ながら、ハイレゾ収録をしているそうです。150インチの麻倉シアターで観たところ、非常にハイクオリティな映像で音も良好でした。キレ、分解能、クリアさも素晴らしいく、バックに控えるシンセサイザーやフルート、ギターなどの小バンドの各楽器もよく音が立っています。ライブ配信最大のアキレス腱であったクオリティも、ここまでのものであれば満足できるでしょう。
音と同様に映像もなかなか見ごたえのあるものでした。ちなみに今回の映像はHDRですが、配信でHDRというのはなかなか珍しいです。麻倉シアターにあるビクターのZ1はHDR手動選択なので、そうとは気付かず最初はSDRで観ていたんですよ。ですがどうにも白飛びが気になったので、試しにHDRにすると見事にハイが出て、色も階調も豊かになった、という点も付け加えておきましょう。
ライブ配信最大の利点は、リアルとは比較にならない多人数同時試聴にあります。U-NEXTによると、同社のシステムでは30万人の同時接続に耐えるとしています。
――これだけの規模のライブコンサートとなると、昔だと世界規模の大ニュースですよね。昨年大いに話題になった1985年の「LIVE AID」でも、ウェンブリー・スタジアムに入れた幸運な人々は7万2000人と言われていますから。
麻倉:重要なのは、この様なハイクオリティ配信を実際にやってみると、メリットは非常に大きいと判ったということ。今回は特に私の大好きな聖子ちゃんですし、リッチコンテンツとしてとても良かったと感じました。
MQA
麻倉:次に紹介するのはWOWOWとMQAのタッグによる取り組みです。音と映像によるプレミアム体験をモットーとするWOWOWにとって、今のネット配信クオリティは満足できるものではありません。そこで今のネット環境を持ちながら最大限の音質と音場が追求するべく、10月6日にライブ配信の実験を敢行しました。
この実験のポイントは映像ではなく音。一般的に絵と音が一体となった映像エンターテイメントにおいて、制作側の注意は95%くらいが絵に向きます。対して音はほとんど顧みられず、しかも配信という限られたリソースの5%しか割り当てられないので、音はどうしても悪くなってしまいます。ここをどうすくい上げるか、というのが今のライブ配信のムーブメントなのです。
WOWOWに関して言うと、毎日放送から入交英雄さんが大型移籍して来たというのが大きなターニングポイントでしょう。この連載ではもはやお馴染み、世界的3Dオーディオの大家。入交さんのWOWOW転籍加入は「これからもう一度音にしっかりと取り組むぞ」という意志の現れであり、特に重視するのは音質と音場の充実です。
――WOWOWといえば映画のイメージが強いですが、それと同じくらい有名アーティストのライブや世界中の大型スポーツイベント中継を手掛けていますね。これらは何れも音の力が大きく物を言うコンテンツですから、同社がオーディオ環境を率先して開発する意図は実に明快です。
麻倉:とは言え、同社の本業であるBS/CS放送枠で新しい技術をやるというのは、フォーマットが厳格に定められているため相当に大変です。場合によっては技術開発に留まらず、行政への働きかけも必要になることでしょう。
そこで同社が目につけたのが、ネットを使った配信をプラットフォーム。この時の差別化こそが音なのです。中でも音質と音場を良いものにする、要するにネットを使ってどのくらいの音質が得られるか、どんな音場を配信できるか、実験に参加した一般ユーザーにアンケートを取り、これらを見極めてフィードバックを試みる。今回はそのための実験です。
良い音へのアプローチとして、まずは2chの音質向上実験に取り組みました。用いた技術はご存知MQA。と言うのも、日本の業界人として入交さんはUNAMASのMic(ミック)沢口さんと並ぶMQAラバーの一人。「Music ORIGAMI」技術によるビットレート節約に見られるように、MQAはそもそも配信をにらんだフォーマットで、限られた帯域でも高音質で伝送できるのはMQAの大きな魅力のひとつなのです。
具体的な実験内容は、渋谷のHAKUJYUホールからマリンバプレイヤー名倉さんの演奏を伝送するというもの。システムとしては、まず3Dで録音して2chへミックスダウン。そこからHPLエンコードをかけ、更にMQAエンコードという経路で、伝送フォーマットとしてはMPEG4 ALSを使用しています。
受信側はPCが基本で、入交さん(WOWOW公式)側の推奨環境は汎用メディアプレイヤー大手ソフトのフランス製「VLC Media Player」。ここからMQAデコーダーへ送るという、なかなか複雑なものです。そもそもMQAでデコードするにはビットパーフェクトでの伝送が要求され、ソフト的にボリュームを触ったりするとOS内のカーネルミキサーで信号が操作されてしまい、MQAデコードができなくなってしまいます。この点は導入にあたって結構なハードルとなるので、実用化の際には専用ソフトなどでの工夫が必要でしょう。
会場のHAKUJUホールについてですが、客席は1階席のみの単層300席。室内楽やソロリサイタルなどがよく合うシューボックス型の小ぶりなホールで、クリアでありながら響きが多いというホールトーンの傾向を持っています。
――このホールの僕の印象ですが、白を基調とした清潔感のある空間です。明瞭に程よく響くトーンから、現代的な音響設計がなされていると感じさせられます。
麻倉:今回の実験で特徴的なポイントは、MQAに加えてヘッドフォン向け立体音響コーデックのHPLによる多重エンコードがなされているということ。2chでありながら立体音響っぽい雰囲気の出音で、音場感もそれなりに聴かれます。質感はMQAらしく物凄くビビットな、その場から湧き上がってくる様な感じがしました。
今回の実験に参加した人からは絶賛の声多数。英国ハンティンドンのMQA本社でもリアルタイム試聴していたそうで、素晴らしかったとのインプレッションが寄せられました。映像付きMQAライブストリーミングというのは世界初ですし、2chを対象とした配信においては充分にメイクセンスしたと言えるでしょう。
Auro-3D
麻倉:続く10月28日、WOWOWの良い音へのアプローチ第2弾として、今度は立体音響による音場向上実験に挑みました。会場はMQAの時と同じくHAKUJUホールで、今度はAuro-3Dを使った配信実験です。
ピアニストの仲野真世さんとパーカッショニストの馬場高望さんのデュエットによる、現代音楽のコンサートをAuro9.1で配信した今回の実験。ステージ上に吊るされたマイクアレイと各楽器のサブマイクをミックスし、客席ではなくステージ上の音響空間を意識したサウンドに仕上げていました。映像は2Kで、転送レートは音声と合わせておよそ11.5Mbps。安定した固定回線ならば問題なく受信できるレートに収めたとしています。
会場のホワイエにはデノンのAVアンプ「AVC-X8500H」とジェネレックのアクティブスピーカーで組まれたAURO 9.1環境も用意されました。来場者を3グループに分け、ホールと配信の違いを聴き比べられたというのも、なかなか興味深い体験でした。
――僕も現地で体験しましたが、響きの雰囲気が極めて近似していて驚かされました。パーカッションの超高帯域はどうしても限界がありますが、それを差し引くとジェネレックのスピーカーとの相性は最高で、実に制動が効いた、生々しい音響空間が再現できていたと感じます。これが本当に通信回線を通ってきた音なのかと思うと、軽くショックを覚えるほどでした。
麻倉:余談ですが、実は今回の配信、Auro-3D非対応の環境で受信しても、5.1chのサラウンドで再生することが可能だったんです。この後方互換性能は、数あるイマーシブサウンドコーデックの中でAuro-3Dが選ばれた大きな理由の1つであり、チャンネルベースであるAuro-3Dの強みとも言えるでしょう。
さてここで少々、今回の実験の意義を考えてみましょう。大きなポイントはコンサートホールの音響空間をそのまま家庭に持ち込めたという事にあります。Auro-3Dを使ったセルソフトもこれまでにいくつか出ていますが、パッケージの中でのAuro-3Dはなかなか難しかったんです。
一方配信を主体とする予定のWOWOWは、専用アプリの立ち上げを考えているそうです。受信環境をアプリ化してしまえば、コーデックの選択や使い分けのハードルも下がるでしょう。そこへきてパッケージではなく、生中継でまさに今やっているコンサートが、音のエッセンスではなく演奏の場の空気そのものを伴って家庭へ生々しく届けられる。これは大きなブレイクスルーです。
実のところオーディオビジュアルにおいては、エジソンの考えがいまだに続いています。言うなれば“パッケージ主義”。つまり、カタチのない芸術作品をパッケージメディアというカタチに封じ込め、各々が愉しむ場所で文字通り“再生”するというスタイルです。
それとは別に、ラジオに端を発する放送というダイレクトな伝送手段がオーディオビジュアルにはあります。従来は放送局からの一方通行でしたが、インターネットを使った配信の時代になるとこれが双方向コミュニケーションへと進化しました。問題はこの放送というメディアにおいて、音質の観点が長い間置き去りにされてきたという事でしょう。
例えばベルリン・フィルのDCH(デジタルコンサートホール)は、音に2chのAACフォーマットを使っています。映像はパナソニックと組むことで4Kまで持ってきましたが、ハッキリ言って音と絵の品質に大きな乖離があり、何ともアンバランスと言わざるを得ません。その点今回のWOWOWの様な、MQAによる2ch高音質配信、あるいはAuro-3Dによる高音場配信になると、例えば楽友協会大ホールでのウィーン・フィルの演奏だって、単に配信で聴けるというレベルを超越した音響感がそのまま伝わってくる。家庭に居ながらにして世界中の名演を、より深い意味でリアルタイムに楽しめる様になるのです。
――音楽体験における音質の重要性がここに来て認知され始めた、という事なのでしょう。同じ演奏を聴くにしても、音質が良いと異なった印象を受ける。これは文化における大きな進歩です。
それと同時に、僕はAuro-3Dの様なイマーシブサウンドの素晴らしさについて、もうひとつ指摘したいと思います。ホールの音響感がそのまま伝わってくるというのはもちろんですが、それ以上に再現できる音楽そのものが、イマーシブサウンドによって別次元に飛んだという点は極めて大きい。今回の実験で披露された楽曲はコンテンポラリーに属するゴリゴリの現代音楽でしたが、こういうものはメロディと和声が主体の近代までの音楽とは観点が全く違い、より本能的な次元で音の刺激をそのまま愉しむ、そういう性質の音楽です。
例えば毎年夏に先生とご一緒するベルリン音楽祭は現代クラシック音楽がテーマで、ここでは時々、客席内に奏者が陣取って演奏をする楽曲があったりするんです。これは四方八方から多種多様な音が飛んでくるのが面白いのであって、その表現は前方定位の2chでは逆立ちをしても再現不可能な世界です。そんな聴き方をしようと思う時、オーディオ機材は単純に音が良いというだけだと、その音楽の本質には全く迫れないんですよ。
麻倉:まさにその通り! 音楽の進化によって出てきた新しい表現は、もはや2chでは収まりきらないところまで踏み込んできているんです。そういう音楽にとって、オーディオに求める事は、文字通り“次元が違う”。
これについて、最近出てきた言葉として「オブジェクティブサラウンド」から「サブジェクティブサラウンド」へ、という話題を紹介しましょう。Dolby Atmosなどの立体音響は「オブジェクトオーディオ」。つまり収録する音を従来のチャンネル単位ではなく物体の単位で捉え、シミュレーションされた音響空間の中で発音源を動かして再現するという考え方です。
これまでオブジェクトオーディオを作る時、音源の動きが正確に再現できるようにという意識で作られてきました。ステージから出た音はしっかりステージ上に存在し、反響として響く音は広がり感を持っている、と。この正確性という意識で作られた立体音響がオブジェクティブサラウンドです。
これに対して、新しく出てきたサブジェクティブサラウンドは、言うなれば“主観サラウンド”。演奏家と言うよりもミキサーエンジニアが音場を再構成・再創造するというスタンスを取っています。弦楽アンサンブルを例に取ると、従来の録音スタイルではステージ上に左側に高音、右側に低音と扇形に5人を並べ、リスニングポイント(収録点)は客席のベストポジションで、後ろからホールトーンを表現する残響が来るという具合を想定します。対してサブジェクティブサラウンドではこの様な慣習的な並びではなく、録音家がイマーシブサラウンドを最大限使うのです。
これはUNAMASの沢口さんが熱心に取り組んでいるスタイルで、閻魔帳でも昔紹介したバッハ「フーガの技法」をはじめとする、大賀ホールでの一連の録音は基本的にこのスタンスです。ハイト(上側)方向は基本的に響きとなりますが、水平方向のリア方向に残響を充てるではなく、各楽器の音像を充てています。こうする事でリスナーは円形配置された弦楽アンサンブルの真ん中で、四方八方からの演奏に包まれるという様子になる。“前は実音、後ろは残響”という役割分担ではなく、前後の各チャンネルを等価に扱う、というのがミソ。沢口さんの題材は現代音楽ではなくモーツァルトなどの古典的なアンサンブルですが、この様にクリエイター・エンジニア側も新技術を使いこなして新しい表現を発信しようとトライしていることがよく解る事例です。
では一方の入交さんはと言うと、九州芸工大出身でクラシックを好んで録っていました。そんな入交さんの悩みは、特に2chの収録において常に響きと音像の二者択一を迫られる、という事。響きを主体にすると音像がぼやけ、音像を主体にすると響きがドライになるのです。特に場の雰囲気を出そうと響きを多く収録すると、お風呂場の向こうからピアノが聞こえてくる様な感じになっていました。
ところが3Dのオブジェクトオーディオならば、2ch収録におけるこのパラドックスが解決できます。響きはハイトから、明瞭度はセンターからといった様子で、チャンネルによって響きと直接音の役割分担をしてやる。これによって響きが豊かでありながら音像は明瞭と、ふたつの要素が両取りできる訳ですね。
――この点は今回の実験で僕も顕著に感じました。特に今回は多彩なパーカッションを使い分けていましたが、この音像と響きが何れも明瞭かつ特徴的に出ていたのは実に印象的でした。
麻倉:当然ながら実際の演奏空間においてこの要素は両立している訳ですが、2chでは表現の許容範囲を超えていたんです。その解決ができたというのも、イマーシブサウンドの大きな意義でしょう。このフォーマット、まだまだ大きな可能性が潜んでいますよ。
Live Extreme
麻倉:最後に紹介するのはコルグとキングレコード、それにIIJを加えた3社の取り組みです。10月25日の日曜日にキング関口台スタジオで披露された、コルグ開発によるネット動画配信システム「Live Extreme」は、この秋最もハイエンドな音と絵を追求したライブストリーミングシステムと言えるでしょう。
スタジオでのホルンとビアノ演奏をその場で4Kの映像と5.6MHzのDSD音声にエンコードして配信し、別フロアのスタジオでリアルタイム受信するという内容の実験でした。公開実験では最大で4Kと192kHz/24bitのPCMの映像が配信されましたが、スタジオでは音声をフルスペックのDSD 5.6MHzまで引き上げ、非公開環境で関係者に披露されました。
この日の演奏はNHK交響楽団主席ホルン奏者の福川伸陽さんと、飛ぶ鳥を落とす勢いな実力派若手ピアニストの阪田知樹さん。それにしても驚きましたよ、インターネット経由でありながら、これほどの高画質、高音質が得られるとは! 実際はスタジオと映像とで1分近くのディレイがあるのですが、音の鮮度が驚異的に高くて、たったいま聴いた生の感覚を彷彿とさせました。視聴ブースのミキサールームにはパナソニックの65型有機ELテレビが据えられていましたが、この映像はハイコントラストで高精細と、実に鮮烈な4K映像でした。
――福川さんは事前に用意した自演の多重録音にリアルタイムでソロパートを乗せる“一人ホルン八重奏”というなかなかの離れ業をやってのけましたね。コロナ禍でも可能な演奏スタイルを模索した結果だそうですが、なかなかチャレンジングで興味深かったです。
阪田さんは落ち着いたタッチから俊敏に立ち上がる熱演まで、ボキャブラリーの多さに驚かされました。しかも叙情的な部分の情感がなかなかに深くて、聴いていてクラクラと陶酔してゆく感覚に落ちていました。
音だけでなく上質な絵があるというのが、やっぱり良いですね。演奏する絵を眺めながら音楽に耳を傾けると、音楽の世界に吸い込まれてゆくんですよ。今年はどうしても生演奏が遠のいていますが、お二人の演奏で何だか久しぶりに心が満たされるのを感じました。
麻倉:「コロナで急に開発を始めたわけじゃないんです」とは、ワンビット専門家であるコルグの大石耕史さんの言。早稲田大学の山崎芳男・元教授の愛弟子で、楽器メーカーのコルグにDSD製品が多いのは、大石さんが手掛けているからなんです。
今回のポイントは、1:高画質、高音質、2:プラットフォーム側でのシステム導入が簡便、3:ユーザーが容易にアクセス可能、という3つ。
1つ目は何よりも“オーディオ・ファースト”を貫いたという事です。デジタル映像は音と絵のズレを合わせる同期が不可欠ですが、これまでの一般的な配信システムでは映像を基準にして音声を合わせていました。大石さんはこの常識に、まず疑いの目を向けたのです。
本システム最大の特徴は、映像ではなくオーディオクロックを基準とし、そこに映像を同期させたということ。単なる映像のハイレゾ化とはワケが違い、徹底的に音を重視して音に最大限のリソースを注いだ結果であり、楽器屋ならではの発想と言えるでしょう。ただしオーディオ基準のクロックは前例が無いため開発は困難を極めたそうで「(発表会の)数日前にやっと完成したほどです」としていました。
ポイントの2つ目はプラットフォーム側の導入の容易さ。Live Extremeは複数の音質に対応する4K映像を1台でエンコードするというライブエンコーダーで、実際はPCベースのシステムで動いています。サービススペックを言うと、映像は最大4K、音は最大PCM 384kHz/24bit、DSD 5.6MHzまで配信の配信に対応しています。
DSDライブ配信と言うとIIJの「PrimeSeat」が有名ですが、同社とコルグは直近だと2019年2月にベルリンからベルリン・フィルの4K/ハイレゾ配信を共同で実験したという実績があります。ですがこの時は複数の機材が必要で、たいへん使いにくかったそう。と言うのも、DSD配信だからといってDSDデータだけを送っていればいいのかと言うとそうではなく、実際のサービスでは多様なユーザー環境を想定して、一般的な44.1kHz/16bitからハイエンドなDSDまで、多彩なフォーマットを用意しなければいけません。その上で万が一に備えてバックアップシステムを用意するとなると、現場に何台も“専用設計の同じ機材”を持っていかないといけなくなるんですね。
そういった現場の苦労経験を活かし、今回はWindows10ベースですべて完結するシンプルなソフトウェアシステムとして設計されています。つまり専用ハードでないと動かないシステムではなく、極端に言ってしまえば専用ソフトをインストールしたWindows10のPCとオーディオインターフェースさえあれば動いてしまう、これが運用面におけるLive Extremeの大きな特徴です。
ポイントの3つ目はユーザー側で特別な対応アプリが不要ということ。DSD再生は例外ですが、スペックを選ばなければPCやスマートフォン、タブレットなどのマシンと通常のブラウザで再生できます。Webブラウザの対応環境と音質/画質の最大公約数を狙った結果、使用コーデックは映像がH.264、PCM系の音声がFLACですが、apple系のsafari環境に合わせてALACも流しているそうです。
ただしこれは利便性を考慮した結果で、音質最優先の開発姿勢とは若干合わない部分もあります。何れにしてもDSD対応には相応の環境が必要ですから、何らかのカタチで本サービスが開始される暁には、専用ソフトを用意するというのが本寸法でしょう。
麻倉:この様に音質特化という特徴を持ったLive Extremeには多くの反響が寄せられたそうですが、中でも特徴的なのが音楽大学からの引き合いがあったという事でしょう。世界中でリモートワーク・リモート授業が奨励されている昨今ですが、音大の実技講義はリモートだとなかなか成立しません。言うまでもなく従来のビデオチャットサービスは圧縮音声で、しかもかなり強めのロッシー圧縮がかかっています。音楽でこれが何にあたるかと言うと、アーティキュレーションやフレージングなどの繊細な表現の部分なのです。
――細やかなニュアンスを消すことでデータを削減している訳ですが、それこそが音大で伝えるべき最も重要な核心部分ですよね。音楽教室の現場からすると「待っていました!」と言わんばかりの技術でしょう。
麻倉:大石さんは意外なオファーとしながらも「社会的な意義を痛感しますね」と話していました。まさに今のユーザーニーズにぴったり。コルグの挑戦を応援したいと思います。
まとめ
麻倉:今回紹介してきた高音質映像配信技術は、この秋になって突然実験が始まった様に見えるかもしれません。ですがこの様な高度な技術が一朝一夕で出てくるわけがなく、実際コルグは2年の研究開発期間を費やしたとしています。実験をした側としては、当然ながらこれらを実験で終わらせる気はありません。実際のサービスへ活かすべく、プラットフォーマーや放送局などの配信主体へ技術を採用してもらうのが大きな目的です。
これらは間違いなく、今の時代だからこそのトレンドです。従来品質で満足することなく、如何に良くしてゆくかというところは、とても面白い流れです。
――リアルでの人間のつながりを断ち切られた今、むしろ人間同士で繋がりたい、近づいて触れ合いたいという、何ともアンビバレンスな欲求が見えてきていますね。音や絵の質を上げたいというのは、結局「音楽家という人間の実像に迫りたい」という欲求の現れで、言うなれば“距離があるからこそ近づきたくなる”訳です。これはコロナ禍による分断が炙り出した、人間の本質ではないでしょうか。
麻倉:そういった欲求に対して、現代の人間はインターネットによる世界的ネットワークという最大の武器を有しています。これまではプアであってもネットで何とかつながってきた、そのプアさを何とか出来ないかと試行錯誤する様が見て取れます。「必要は発明の母」とはよく言ったもので、この様な挑戦にこそ人類の進歩へとつながるのでしょう。