西田宗千佳のRandomTracking
第455回
アニメ制作の常識が変わる!? VRベンチャーとavexが組む 「AniCast Maker」の狙い
2019年12月9日 07:30
11月、エイベックスの子会社であるエイベックス・テクノロジーズと、日本のVR関連開発企業であるXVI(エクシヴィ)が、合弁会社を設立すると発表した。目的は、アニメ制作ツール「AniCast Maker」の商用化と、その特許管理だ。
どんなアニメーションが作れるかというと、以下のような映像である。
これの制作に掛かった時間は1~2時間。ほとんどはカットの並べ替えをして、試行錯誤している時間であり、作業には30分程度しかかかっていない。しかも1人でも作れる。当面はB2B向けとなるが、個人向けの提供も視野に入れた技術となっている。
このツールはどのような可能性を持っているのか? そして、それによって映像の世界はどう変わるのだろうか?
開発元である、XVIの近藤義仁社長と、開発担当の室橋雅人氏に聞いた。
「撮影する」感覚で映像を制作、AniCast Makerの凄さとは
まず、AniCast Makerがどんなツールなのか、もう少し説明しよう。
動画を見ていただけばおわかりのように、このツールは、いわゆる3D CGのアニメーションを作成するためのものだ。特にキャラクター・アニメーションに特化しており、キャラクターがからんだアニメを簡単に作れるのが特徴だ。
他のアニメ制作ツールと違うのは、インターフェースとしてVR用のHMDを使うことだ。
AniCast Makerでは、VR空間の中にセットを作れるようになっている。書き割りを置いて、大道具・小道具としての3Dモデルを置いて、登場人物としてのキャラクターを配置する。
この辺は一般的なCGツールもそうなのだが、一般的なツールと違うのは、それを「空間の中に入って、自分で見ながら行なえる」ということだ。PCのディスプレイを見ながら3D CGを作る場合、CG空間の中の様子を、画面の表示を手がかりに脳内で構築するテクニックが必要になる。慣れればどうということはないのだが、初心者には大きなハードルであるのは事実だし、慣れた人にとっても負担であることに変わりはない。それが、模型をレイアウトしたり、自分でセットを見ながら動いたりする感覚で配置できるのは大きい。
さらに、キャラクターの動きにもHMDとハンドコントローラーを使う。自分がキャラの中に入って、身振り・手振りで動きを付けるのだ。
というと、「それ、VTuberだよね? 」と思う人もいるだろう。実のところ、XVIのAniCastは、まずバーチャルYouTuber向けにCGでライブパフォーマンスを提供する「AniCast Live」として作られた。現在も「東雲めぐ」や「輝夜月」などのキャラクターの他、「バーチャルジャニーズプロジェクト」などでも使われている。
ただ、「AniCast Maker」としては、そこよりも先の「映像を作る」ところに注力した内容になっている。
例えばカメラ。AniCastではもともと、カメラもVRで扱う。自分がカメラをもって撮影しているイメージでカメラアングルを決めるのだが、AniCast Makerでは「映画を撮影する」感覚へと拡張した。自分がカメラマンになってアングルを決め、さらに自分で動いて、自分で近寄って撮影する。
例えば実写の映像では、カメラマンの動きによって細かく「ブレ」が存在する。それは単純になくせばいいものではなく、映像に迫力や生々しさを与えるために有用なものでもある。が、CGでカメラを動かす場合、素直にやるとなめらかすぎて、そうした生っぽさが失われる。
しかしAniCast Makerの場合、自分でカメラを持って動くので、自然なカメラアングルで映像を作りやすくなる。その時にはブレも再現されるので、より自然な映像になるのだ。もちろん、「水平軸は固定」「ロールはさせない」などの指定はできるので、楽に安定したカメラワークを実現することもできる。
そしてなにより大きいのは、「カメラにしろキャラクターにしろ、ひとつひとつ記録して追加していくことができる」という点だ。
実際の撮影では、演者はすべてその場に揃っていなければいけない。ある人だけ別撮り、というのも今はCG合成でできるようになったが、それには相当な手間がかかる。同じカットの中で「いまの首の動きだけ良くなかったのでやりなおし」というわけにもいかない。
CGなら修正はできる。しかし、ひとつひとつのキャラクターをバラバラに動きをつけ、カメラを設定していくのは大変なことだ。
AniCast Makerでは、その過程を劇的にシンプルにする。
例えば、まずメインのキャスト(キャラクター)とメインのカメラ(据え置き)、最低限のセットだけで動きをつけて撮影し、次にその動きを残したまま別のカメラの動きを付け、さらにキャラクターを増やして……と一つずつ、要素を増やしながら映像を作れる。
その過程で、キャラクターを変えたり、一部の動きだけを撮り直したりということも可能だ。キャラクターについては、別途モーションキャプチャなどで作った動き(ダンスなど)を加えていくこともできる。
こうしたことを、一人でそれぞれをバラバラに作業していくこともできる。3つのカメラで4人の登場人物がいるシーンを撮影するのは、実写の場合ひとりでは不可能だ。CGならできるが、自然な映像を作るには相応の知識と学習が必要になる。AniCast Makerの場合には、実写に近いイメージでの制作をひとりでも行なえる。CGでも必要になる「映像制作のお作法」のようなものを、CG制作ツールで学ぶよりも簡単に、実写の感覚で試行錯誤しながら学んでいけるのも大きい。
要は、CGという技術を使いつつ、カメラでの映像撮影を、マルチトラックレコーディングのように積み重ねて映像を作っていけるのがAniCast Makerの特徴である。
筆者も体験してみたが、非常に簡単で使いやすい。筆者は一応、CGでの映像制作の経験もあり、ツールは一通り使える。しかし、こと実写映像に近い、人物を軸に据えた映像を作るのであれば、CGツールを使うより、AniCast Makerのような「疑似撮影」的なアプローチの方が、より楽に使えるし、なによりカメラワークを作り込んでいくのが面白い。
さらには、そうやって作った映像をレンダリングして出力する際に「グレーディング」もできる。映画などでは、撮影した映像を最終作品にする際、各カットをつないだ上で色合いを合わせてテイストを作り込んでいくのだが、それと同じことができる。
冒頭で紹介した映像を、CGツールの利用経験や映像制作の経験が浅い人であっても、1人で作り上げられる可能性を持っていると、筆者も十分に理解できた。既存の3D CGツールの場合、習熟には相応の努力と知識が必要だが、AniCast Makerなら、ハードルはそこまで高くない。
開発を担当した、XVIの室橋雅人氏は、開発のポリシーを次のように語る。
室橋氏(以下敬称略):ひとりでも短時間で映像制作ができることを考えてはいるのですが、「より学びやすい」ことも重要だと思っています。特にカメラワークについてはそう思います。それに、カメラやモーション、グレーディングなど、それぞれのパートをバラバラに扱えるので、ネットワークを介して分業しやすい、というのも特徴です。
グレーディングについては、AfterEffectsなどのツールが使える人は、それでやってもいいんです。でも、短時間にシンプルに作業を終えるなら、使わずにある程度出来てしまうのがいいだろう、と考えています。
室橋氏の個人プロジェクトからスタート、VTuber向けを超えて映像作成ツールへ
では、どのようにこれをビジネス化していくのか? そこでポイントとなるのが、冒頭で述べた、エイベックス・テクノロジーズとの合弁事業だ。エイベックス・テクノロジーズは、エイベックスの子会社で、CGやブロックチェーンなど、主にテクノロジーが関わる新規事業を担当する。一方でXVIは、VR関連のデモやアプリケーションの開発、コンサルティングを主軸とする。VRコミュニティでは高い知名度を持つものの、XVI自身は社員十数名の小さな会社である。この両社がどのように提携し、AniCast Makerをビジネス化するに至ったのだろうか?
XVI・代表取締役社長の近藤義仁氏は経緯を次のように語る。
近藤:もともと、VRを使って演劇やアニメをできるのではないか、という発想はありました。
そんな中、室橋が、いわゆるGoogleの「20%ルールプロジェクト」的に、社内で個人制作として作っていたのが、AniCastの元になった「PlayAniMaker」と「MakeItFlim」です。
これが本当に面白かった。なので、2つのツールを融合させて、新しいものを作ろうとしたのがAniCastです。
「PlayAniMaker」や「MakeItFlim」が世に出たのは2017年10月のこと。そこからまず事業化したのは、バーチャルYouTuberのためのツールである「AniCast Live」だった。2017年末から、バーチャルYouTuberは急速に注目を集めていた。モーションキャプチャ・スーツのような大げさなものを使わず、かつ高品質にバーチャルYouTuberのライブパフォーマンスを実現するものとして、まずはビジネスを展開したのだ。Gugenkaがバーチャルキャラクターとして展開している「東雲めぐ」(冒頭のアニメーションにも出てきたキャラクターだ)は、そうしたプロジェクトから生まれたものだ。
その後、AniCast LiveはいくつかのバーチャルYouTuberプロジェクトに採用された。しかし、近藤氏は密かに悩みも抱えていた。
近藤:ライブパフォーマンス向けではこれ以上のスケーラビリティがないかもしれない……と感じ始めたんです。バーチャルYouTuberは参入障壁が低いので、数がどんどん増えています。その中では消耗戦になってしまう可能性があります。
そうした悩みの中、近藤氏と室橋氏は、XVIを訪れた多くの人にAniCastを見せていた。その中にいたのが、エイベックス・テクノロジーズの社長である岩永朝陽氏だった。
元々岩永氏と近藤氏は知己の間柄だったが、その後ビジネス化に手応えを感じ、両社は「ツールとしてのAniCast」の可能性を広げるために提携し、合弁会社を作ることになる。
岩永氏は、印象などを次のようにコメントしている。
岩永:音楽の世界も変わってきました。「歌ってみた」「踊ってみた」といった動画を含め、トレンドとして、個人のクリエイティビティがより重要になっています。個人制作は、エイベックスがいままでやってきたものに対する「カウンターカルチャー」にあたる部分もありますが、そうした先進的な部分にも積極的に取り組み、新しいIPを生み出していきたい。AniCastは、新しいIPを個人レベルで生み出せるツールだと感じています。子供も使えるところが大きいですが、海外にも可能性があります。
なぜ1社でなく、エイベックス・テクノロジーズとの合弁を選んだのか? 理由は「特許戦略」だ。
近藤:VR・ARのためのUIやUXは、どんどん色々な発明がなされていきます。いままでのコンピュータの常識、ウインドウシステムやらペーパー・パラダイムに毒されていないところから、空間コンピューティングのための、今までとは全然違う発想のUIができるでしょう。
その時のためにパテントを持っておきたい、ということはあります。正直、 XVIという謎のメーカーがパテントをもっていても戦えないです。将来に備えるために協力しよう、というのが、エイベックス・テクノロジーズとジョイントベンチャーを作る上でのコンセンサスでもあります。
すなわち、海外戦略やパテント戦略については、知見もあるエイベックス側に任せた上で、XVIはUIを含めた開発に注力したい、という考えだ。
B2Bから始める理由と「将来の個人向け」で生まれる世界とは
ではその上で、AniCast Makerをどうビジネスにし、広げていこうとしているのだろうか?
近藤氏は「まずはB2Bで広げたい」と話す。要は、アニメーションや、本編作成前のプレビズ制作といった、映像制作のプロに向けて提供することを考えており、個人向けはその先にある。
すでに述べたように、AniCast Makerは非常に使いやすく、今の状態でも、十分に個人が使えるものだ。エイベックス・テクノロジーズ 岩永氏のコメントからも分かるように、「個人が制作に使う」ことを強く意識してもいる。
では、なぜB2Bからなのか? 近藤氏は次のように話す。
近藤:まずはB2B向けにします。2020年にはB2B向けをスタートします。
AniCast Makerの利点はクオリティ。ほとんどのVTuberより、ずっとクオリティがいいのがポイントです。今後も「テレビ放送ができるクオリティ」を維持します。
だって、テレビのアニメを見慣れた人からすれば、「テレビアニメ」そのものが品質の基準ですよね。ならば、それと同等、もしくは超えないといけません。
AniCast Makerの良いところは、短い時間でクオリティの高いアニメを量産できることだ。
例えばCMを考えてみよう。SNS向けに毎日、商品と絡みのあるキャラクター・アニメーションをアップしたい、とする。それはもちろん、今でも無理ではない。だが、多数のCGアニメーターが参加して制作しないといけないのでは、コスト的な問題から広がりづらい。いろんな製品でいろんなアニメーションを作るのは難しい。
しかしAniCast Makerなら、手直しも分業も簡単だ。
「まずB2Bで」と近藤氏が考えるのは、そうした市場の大きさを想定してのことだ。
だが、また別の視点もある。
近藤:VRを広げるには、まず「ツール」になる必要があります。
DTMにおけるローランドの「ミュージ郎」(1989年発売)を思い出してほしいんですが、あれが登場することで、みんなが音楽を作れる環境が整いました。AniCast Makerも同様で、みんながVR用HMDとAniCast Makerを用意すれば、みんながアニメクリエイターになる世界がやってくると思います。
しかし、いきなりVR、というのは敷居が高いんです。
現状、VRはいきなり広がってはいません。広げようといろいろ考えてきましたが、いきなりは難しかった。
「2D」のコンテンツの方が身近です。コンテンツ主導型にして、AniCast Makerで作られたアニメコンテンツに触れるところからスタートして欲しいんです。2020年には色々出てくると思います。
さらには、今は2Dの(映像を作る)ツールだけど、3Dのデータとしても吐き出せます。要は、VR・ARモードなんですが。そうすると、スマホなどで見れば自宅をアニメの世界にすることも可能になります。まだ、その体験を販売できる環境はありません。そういうものを作れることが優位性です。
まずは、品質のいい次世代アニメツールを作って、自宅がアニメの世界になることを目指します。どういうアウトプットが見せられるのかが重要です。正直、コンシューマから始めると、クオリティを担保しづらくなります。
キャラクター・アニメーションでは、いかにキャラが生き生きしているかが大事なのですが、今はモデルに合わせた丁寧なチューニングが必須なんです。
ツールをSteamで爆発的に配る、でもいいんですが、それをいきなりやると、クオリティも担保できないし、サポートも厳しい。
今はまず、AniCast=高クオリティ、丁寧で憧れられる存在にしたいんです。
そもそも、残念ながら、PCを買ってまでやってくれるコンシューマの数は多くありません。正直、ゲーミングPCとHMDを買ってまで体験して欲しいんです(笑)。でも、相当計算したんですが、今は、サポートまで含めると、どう考えても赤字になります。
並行して、アーリーアクセスやクローズテストは行ないます。要は、今は広くサポートする「ことができない」だけなんです。一部のクリエイターには提供をしていきたい、と思っています。
そしてまずは、コミュニティを作るのが大事です。サポートセンターよりもコミュニティの方が重要。それらの準備ができたら、コンシューマ向けの世界に行きます。
その上で、どういうコンシューマ向けの世界があるのか? 近藤氏は構想の一端を語ってくれた。
近藤:まずやりたいのは「ファンアニメ」の世界です。ファンが、アニメに出てくるキャラクターや世界で、実際に映像を作れるものにしたいです。
そして、そうやって映像を作ったクリエイターが、直接マネタイズできるようにしたい。
もちろん、AniCast Makerのいいところは、個人クリエイターが、ひとりで演技して撮影して編集までできること。それをTwitterに上げる、とか。4コママンガ感覚で、ショートムービーを簡単に作れます。そうやって、キャラクターを使って個人もアニメを作り、自由にアップできれば面白いですよね。そういうやり方は、ファンの交流という意味でも、CMと言う意味でも、時代に即していると思います。
そう考えると、エイベックスと組む、という判断の意味も見えて来る。まずアニメ作品があり、そこからキャラクターが生まれ、ファンがそれを使って作品を作り、そこからはファンもクリエイターになり、ファン=クリエイターと、オリジナル・クリエイターの両方がビジネスを回せる姿を想定しているのだ。