ニュース

ライブストリーミングの遅延を放送並みに抑える。アカマイの低遅延配信技術

 アカマイ・テクノロジーズは25日、同社の技術・ソリューションをテーマにしたセミナー「2017 Tech Meetup」を開催し、このなかで映像の低遅延ライブ配信を実現する新製品「Media Services Live 4」の解説とデモンストレーションを行なった。

アカマイが低遅延ライブ配信技術を紹介

 従来はライブ配信において30~45秒もの遅延が発生していたところ、その数分の1となる10秒前後に短縮するもので、リアルタイム性を高めることで大規模スポーツイベントなどでユーザー側の臨場感や利便性を向上させる。2020年東京オリンピックのような大規模イベントにおける、低遅延ライブ配信に向けた取り組みの一環としている。

高品質な映像のまま低遅延を目指すには?

 ストリーミング配信のプロトコルは、主にサーバーやクライアント(プレーヤー)の環境によって用いられるものが異なる。現在主に利用されているものとしては、HLS(HTTP Live Streaming)、HDS(HTTP Dynamic Streaming)、Smooth Streaming、DASH(Dynamic Adaptive Streaming over HTTP)、RTMP(Real-Time Message Protocol)、RTP/RTSP(Real-Time Transmission Protocol/Real Time Streaming Protocol)、WebRTCといった形式がある。

 HLS、HDS、Smooth Streaming、DASHは主に大勢が同時視聴するコンテンツの配信に、RTMP、RTP/RTSP、WebRTCは個人ユーザー間または少人数グループ間におけるチャットなどに利用されていることが多い。

低遅延配信技術について解説したアカマイ・テクノロジーズ合同会社 メディア プロダクト マネジメント プロダクトマネージャー 伊藤 崇氏
現在主に使われているストリーミング配信プロトコルと遅延の関係

 これらのうち大規模イベントの配信に向いたHLS、HDS、Smooth Streaming、DASHの各配信プロトコルでは、従来、一般的な状況下では30~45秒というかなり大きな遅延が発生していた。なぜなら、配信元からエンドユーザーの端末上でコンテンツ再生するまで、処理コストのかかるプロセスを段階的に踏む必要があるためだ。

 インターネットライブストリーミングにおける大まかなデータ処理の流れはこうだ。最初にカメラで撮影した映像をエンコーダー(パッケージャー)で圧縮・パッケージングし、インジェストというプロセスでバックエンドのシステムに映像データを送出後、日本あるいは世界各地のCDN(Content Delivery Network)サーバーへ転送してキャッシュする。そのキャッシュデータがクライアント(ユーザーの端末)に配信され、プレーヤーでバッファリングやデコードなどの処理が施されたうえで画面に表示されることになる。

ライブストリーミングの配信プロセス

 当然、それらの各段階で処理時間がかかり、少しずつ遅延として蓄積される。全体の遅延を小さくするには、簡単に言えば画質や安定性という意味での“品質”を下げるのが手っ取り早い。しかし、スポーツイベントとなると可能な限り高画質のまま、大勢のユーザーが途切れることなく視聴できる安定性が求められる。本当の意味での低遅延を目指すには、“品質”を低下させずに安定的に配信することが重要になるわけだ。

 高品質を維持しながら低遅延を達成するには、配信の各段階それぞれで工夫が必要だ。エンコーダーからバックエンドシステムへデータを送出するインジェストの段階では、一定時間分のストリーミングデータをセグメント化(分割)する際、そのデータサイズを小さく(短時間の尺に)することが考えられる。ただし、小さくするほど原理的に遅延を減らしやすいが、もしそのデータの実時間分を同じ時間未満で処理できなければライブ再生は不可能になる。

 クライアント側のプレーヤーでも、バッファ容量(時間)を短くすることで遅延は縮小できる。しかしながら、こちらも同様に配信サーバーやネットワークの性能・速度が、その短時間のバッファに十分に見合った高速かつ安定したものでなければならない。

42秒の遅延が新システムで4分の1に

 こうした状況を踏まえ、アカマイが2017年から新たに提供を開始した製品「Media Services Live 4」では、HLSプロトコルで標準的に設定される10秒のセグメントサイズを2秒とし、インジェストにおいてはそのデータをHTTPではなくUDPで送出、アカマイのCDN「Akamai Intelligent Platform」でキャッシュした後、クライアントにはUDPベースのQUICプロトコルで配信する形とした。

低遅延ライブ配信をデモしたアカマイ・テクノロジーズ合同会社 テクニカル・ソリューション部 ソリューション・エンジニア 松野憲彦氏
従来製品の構成図
新しい「Media Services Live 4」の構成図。インジェストの処理のために新たにIAS、IATと呼ばれる仕組みが導入され、エンコーダーがインジェストサーバーなどからの返答を待たずに次の処理を始められる点も高速化に寄与している

 セミナーで実施したデモンストレーションでは、3つのモニターを用意し、その3画面を見比べられるように設置した。1つは秒表示している時計を撮影したカメラのリアルタイム映像のモニター、2つ目はその映像をエンコーダーに通した内容を表示するモニター、最後の3つ目はライブ配信された映像をストリーミング再生した内容を表示するモニターだ。

 エンコーダーを通した後の2つ目のモニターではリアルタイムから4~5秒ほど前の時間を示し、従来の仕組みで配信・受信した映像はそこからさらに42秒前の時間を示した。トータルでリアルタイムから46~47秒も映像が遅れていることになる。

従来製品によるライブ配信デモ。左のライブ再生している画面では、42秒ほど過去の時間を示している

 一方、新たなソリューションで配信・受信した映像では、エンコーダーを通した映像の約11秒前を示した。従来方式でインジェストからプレーヤー再生までにかかっていた42秒が、4分の1に短縮したことになるわけだ。

新製品によるライブ配信デモ。11秒程度の遅延に抑えられていることがわかる

 次に行なわれたHarmonicの池田氏によるデモでは、さらなる低遅延を実演した。主にエンコーダー(パッケージャー)でセグメント化する部分と、プレーヤー側へそのセグメントを送信・処理する部分の2箇所を変更したもので、これにより5秒以下とされる放送波の遅延(地上デジタル放送は2秒程度)に匹敵するパフォーマンスを実現する。

 具体的には、ISO/MPEGの新標準規格として2017年中に承認されると見込まれる「CMAF(Common Media Application Format)」規格を採用。2秒にしたセグメントをさらに200ミリ秒ごとの「CMAF-Chunk」に分割し、プレーヤーには「HTTP Transfer Encoding: Chunked」として配信。通常プレーヤー側は複数のセグメントを受信してからデコード・再生するが、この場合は小さなチャンクで分割された1つのセグメントを受信してからすぐにデコード・再生するため、遅延が小さくなるという。

 実際のデモでは、CDNを介していなかったこともあり、エンコード後の映像の時間とプレーヤーで受信した映像の時間とでほとんどずれのない状態になっていた。

Harmonic Japan合同会社 シニア・セールス・エンジニア 池田行宏氏
標準化作業が進むCMAFを採用し、さらなる低遅延を実現する
デモの機器構成図
エンコード後の映像と比べ、ほとんど遅延がない

 セミナーの最後では、まだアカマイが製品として開発中のものであるとしながらも、CMAFを用いたコンテンツデリバリーシステムのデモを実施。サーバーから配信された映像をほとんどゼロ遅延で再生する様子も披露した。

アカマイが最後に行なった動画配信デモ。NTPサーバーとの時刻同期の都合上、遅延がマイナス表示になってしまっているが、実際には1秒以下の遅延で再生されていた