西田宗千佳のRandomTracking
第603回
「AIは人の創造性を置き換えない」。アドビが主張する新機能のあり方とは
2024年10月15日 10:24
アドビの年次イベントである「Adobe MAX 2024」の取材で、米・マイアミビーチを訪れている。
例年Adobe MAX 2024はロサンゼルスで開催されてきたが、今年は北米大陸の反対側であるフロリダ州マイアミビーチに移動。直前にはフロリダ州を巨大なハリケーン・ミルトンが襲ったが、マイアミビーチ周辺の被害は小さく、予定通り開催された。
ただ、フロリダ州自体はミルトンに大きな被害を受けており、Adobe Foundationはアメリカ赤十字とWorld Central Kitchenに寄付を行なっている。
現在、アドビのプロダクトの中心は生成AI「Firefly」技術だ。今年もその点は変わらない。今回はついに「ビデオ生成モデル」が公開された。
ただ、基調講演で語られたのはビデオ生成だけにとどまらない。あらためて、アドビの生成AIに対する姿勢や、「AIがあたりまえの道具である時代に、どう生かすのか」という関係が語られた。
なお、Fireflyとビデオ生成モデルについては、別途独立した記事も予定している。そちらもお待ちいただければ幸いだ。
コンテンツニーズ増加に人手が追いつかず。だからAIが必要
「AI技術は3つの側面、技術・責任・コミュニティの面で、クリエイティブな社会を変えつつある」
「我々は、生成AIが人の創造性を拡大するものだと信じている」
アドビのシャンタヌ・ナラヤンCEOは、Adobe MAX 2024の基調講演冒頭でそう語った。
アドビがツールとして生成AIを活用すること自体は、もはや特別なことではない。しかしそこでは「どんなことができるのか」という技術面だけでは実現できない。権利的に問題がなく、安心して商用で使える(と、少なくともアドビが考えている)生成AIサービスが必要であり、さらに、クリエイターの間での情報交換を含めたコミュニティが必要……という考え方だ。これまでアドビが強調してきた路線であり、その拡大が続いていることを感じる。
ナラヤンCEOに続いて壇上に立った、デジタルメディア事業部門代表のデイビッド・ワドワーニ氏は、別の側面から、生成AIをはじめとしたテクノロジーの必要性を次の3つの数字で示した。
「過去 2年間でコンテンツへの要求は5倍に拡大し、クリエイティブチームを持つ10社のうち9社が人を追加雇用し、雇用自体は2倍に増えている」
デジタルマーケティングの多様化などに伴い、適切なコンテンツをより多く作らねばならない状況にあり、結果として、少なくともアメリカではクリエイターの雇用機会が拡大している、とアドビは主張する。
だがコンテンツが5倍に増えても、クリエイターの数が5倍になるわけではない。クリエイターや、社内で「デザインが専業ではないのにコンテンツを作らねばならない人」のニーズは拡大しており、現実問題として、AIをうまく使って効率を高める必要がある……。
アドビはそう主張し、自社のツール群が有用……と位置付けているわけだ。
そこでは当然、AIの活用に対する基本原則が必須になる。
アドビが提示したアプローチ原則は以下の4つだ。
- 許諾を得ない限りコンテンツをAIの学習に使わない
- (学習などに使われる)Adobe Stockへの登録クリエイターには対価を支払う
- 顧客のデータからAIの学習をしない
- ネットを探し回ってコンテンツを集めない
すなわちどれも、「商業的に利用するコンテンツを作る際にも、安心してアドビのAIを使えるようにする」ために必要な条件、ということになる。
動画を生成する「Adobe Video Model」は、現時点で唯一の「商業利用可能なことが明示された動画対応生成AI」である、とアドビは主張している。前述のアプローチ原則が守られており、その上で利用するクリエイターが自ら利用を取捨選択できる……というのが、「商用利用可能」である条件、ということになるだろうか。
創造性を奪うのではなく「負荷を減らす」
Adobe MAXでは毎回、多数の機能が公開されている。その中には「生成AI関連」のものもあれば、一般的なAIを使ったものもある。
ただはっきり言えるのは、その多くが「クリエイターの手数を減らすため」のものであり、「クリエイターほどの経験がない人の能力を助けるもの」である、ということだ。
ワドワーニ氏もはっきりと「生成AIは人の創造性を置き換える道具ではない」と説明する。
例えばPhotoshopには「クイックアクション」という機能が搭載される。これを使うと、写真の中に大量にある「電線」をクリック1つで消してしまえる。
こうした作業は従来、Photoshopを使う人がちまちまと電線を選択、様々な加工の末に「消す」という形で実現していた。だが生成AIの力を使うことで、こうした作業を「1クリック」に短縮する。その結果としてもっと必要な部分に集中してコンテンツのクオリティを上げたり、同じ時間で生成できるコンテンツの量を増やしたりできる。
Illustratorと連動する新ツールである「Project Neo」では、ウェブ上で簡単な操作によって3Dオブジェクトを作りつつ、それを簡単にIllustratorのドキュメントへと埋め込む。リアルな画像が求められるようになっているが、そこで3Dデータを作る経験が少ないデザイナーであっても、Illustratorの中で3Dのデータをシンプルに表現できるようになる。
新ツールである「Project Neo」。3D CGの経験が薄いクリエイターでも、Illustratorと連動して簡単に3Dデータを文書に組み込むことが狙い
動画を複数人でチェックしてワークフローを効率化するツールである「Frame.io」は、動画だけでなく「あらゆる主要なファイル」に対応した。共同作業でのファイルやコメントの管理を楽にするためだ。LightroomやPhotoshopとの連携も強化され、作業工程を簡略化できる。
さらに、カメラで撮影するとそこから直接ファイルをFrame.ioにアップロードされる「Camera to Cloud(C2C)」の対象機種が拡大された。富士フイルム・パナソニックに加え、ニコン・キヤノン、そしてライカがパートナーとなり、撮影からチェックまでのフローがシンプルかつ素早いものになっている。
Lightroomのモバイル版が改良され、PC/Mac版と同様、生成AIを使った「生成塗りつぶし」ができるようになったことも、「どこでもすぐに作業できる」という意味ではプラスだ。
動画の足りない部分を「生成拡張」
そうした「手間の削減と制作効率のアップ」という意味で大きいのが動画関係だ。
例えばPremiere Proには、動画をちょっとだけ伸ばす「生成拡張」機能が入った。
これは動画を解析した上で、写っているものやライティング、カメラの動きなどを維持したまま、2秒だけビデオを生成してそのカットの長さを伸ばす機能。ビデオ編集時に「ちょっとだけ長さが足りない」とか「傾いて写っているコマをカットして長さを合わせたい」時などに使う。以前ならばスロー処理を入れたり、別の素材を持ってきて調整したりとけっこうな手間がかかっていた作業だが、本当に「伸ばすだけ」で2秒分追加できる。
同様に音声にも使えて、その場合には10秒伸ばせる。こちらは会話や音楽を生成して伸ばすことはせず、「そのビデオの持つ室内や屋外での音の感じ」を生成して、最大10秒分の不足を埋める。
もちろん、Fireflyでのビデオ生成モデルは、ゼロから動画を生成する技術として使える。(ただし現状はテスト公開なので、長さが最大5秒に限定されている)
ただ、アドビはゼロから動画をAIで作ることよりも、「日常的にクリエイターが困っている動画編集を楽にする」ことを考え、機能を割り当てたような形になっている。ゼロから動画を作るより、動画からそこにつながる部分を作る方が品質の高いものを作れる、という発想もあるのだろう。
また、ビデオ内の人やオブジェクトを認識し、その部分を切り抜いたり色を変えたり、と言ったことも可能だ。これもまた、ビデオを加工する手間を省くものと言える。
ビデオという意味では、Adobe Expressでも機能強化が目立つ。ビデオ内の人を認識して切り抜いたり、文字などと重ねたモーショングラフィックスを作ったりできるようになったためだ。これがウェブの上で、数回クリックするだけでできてしまうのは面白い。
これらの機能はAIなしには実現できない。
一方で、AIが実現することのほとんどはあくまで「作業」に類するもの。創造自身は利用者に委ねられる……という点で首尾一貫している。
アドビはあくまでツールの会社であって、生成AI自体を開発している企業ではない、という主張のようにも感じられる。