西田宗千佳のRandomTracking
第566回
アドビカタブラ! Adobe Maxで公開された魔法のようなテクノロジーの意味とは
2023年10月12日 07:00
10月10日(アメリカ太平洋時間)、Adobeは年次イベント「Adobe MAX 2023」を開催、基調講演で同社クリエイティブ製品の新機能を公開した。
他のIT企業と同じく、Adobeも生成AIの波に乗ろうとしている。今回発表された新機能の多くが生成AIの絡むものだった。
あるデモの中では「アドビカタブラ!」というキーワードが使われていた。以前から自動処理などでは使われるものなのだが、生成AI以降の新機能では、まさに「魔法のようにワンクリックで」という表現がふさわしい印象がある。
壇上でデモをしながら、担当者が「アドビカタブラ!」と唱えていた。
以前から何度も使われているフレーズで、同社がTipsの紹介に使っているInstagramアカウントの名前でもあるのだが、久々に筆者も「まさにアドビカタブラ!」と感じだ。
どんな変化があったのか、順に説明していこう。
生成AIの波にのるAdobe。全てが「Firefly」へ
「今年は変化の年だ。弊社だけでなく、多くの企業が生成AIで変化に直面している」
Adobeのシャンタヌ・ナラヤンCEOは、基調講演でそう述べた。
確かに、去年までのMAXとは少し違う。
昨年は「画像」生成AIが盛り上がっていたが、今年になって生成AIはあらゆるシーンに拡散し、今年のMAXでは完全に主役になった。
Adobeが生成AIツール「Adobe Firefly」をリリースしたのは今年の3月。Fireflyでの画像生成量が30億回を超えたという。他の画像生成サービスも同様だが、Adobeでも、短期間で一気に利用頻度が増している。
そして、最初のバージョンの公開からたった半年しか経過していないが、Fireflyは大幅に進化する。静止画や文字装飾生成から、「Adobeのあらゆるツールの基盤」になった。
AdobeのAIといえば「Adobe Sensei」であり、昨年のMAXまでは「Sensei」が連呼されていたが、今年は「Firefly」だ。別にSenseiがなくなったわけではない。だが、基盤技術として拡散し、裏方になったSensei以上に、ニューカマーでありカッティングエッジであるFireflyが脚光を浴びる形になった……というところだろう。
実際のところ、「おお」と驚いてしまう技術がすべて生成AIベースというわけでもなく、当然のように「適材適所」で使われている。
だが、確かに今年は変化の年であり、ここ数年で一番「壇上のデモを見ていて驚く」基調講演ではあった。
Photoshopだけを取り出しても、すでに30年にわたる進化の歴史があるが、その上に生成AIが加わることで、新たな時代に入ったことを予感させる。
なお、以下記事内では、できるだけ実際にアプリ上で試したサンプルを掲載している。Adobe Creative Cloudの契約者ならばすでに利用可能になっているので、ぜひ試してみていただきたい。
音声もビデオも3Dも、続くFireflyの進化
というわけで、まずいくつか新機能を紹介していこう。
まずはFirefly自身の進化から。
3月に発表されて以来、Fireflyは同じ学習モデルを使ってきたのだが、10月10日からは「Firefly Image 2モデル」が導入された。
これにより生成画像の画質が大幅に変化している。
また、単に絵柄が変わっただけではなく、画像を読み込んでそのスタイルで生成する、ということもできるようになった。
例えば、「Adobeロゴが掲げられたコンベンションセンター」の写真(本記事冒頭のもの)をスタイルとして適応すると、明確に画像が変わってくる。
また写真(風画像)における背景ボケの強度など、細かな設定も追加される。
ただ、追加されたのは画像を生成する「Image 2モデル」だけではない。
主にIllustrator向けにベクターデータを生成する「Vector Model」、Adobe Express向けに文書のデザイン全体を生成する「Design Model」が追加された。
Vector Modelでは、ベクターデータのイラストを文章(プロンプト)から生成し、色調もプロンプトだけで変えられる。作る側でイメージさえ具現化されていれば、少ない工数でより効率的な作業と試行錯誤が行なえるわけだ。
これは、生成AIをベースとした技術の基本的な特徴そのものでもある。
Design Modelも同様だ。チラシなどのデザインを短時間で作成し、スタイルを適応していく。
そして基調講演にて、Adobe デジタルメディア事業部門代表 デビッド・ワドワーニ氏は、Fireflyのさらなる進化について予告した。それが、「Audio Model」「Video Model」「3D Model」の導入だ。時期は明確に示されなかったが、オーディオ・ビデオ・3DのそれぞれでもFireflyでデータを生成できるようになれば、また大きな変化につながるのは疑いない。
そして、これらFireflyでの生成物には、「コンテンツ認証イニシチアチブ(CAI)」情報が付け加わっている。CAIについては昨年のAdobe MAX取材記事で解説しているが、データに「来歴」を記録していく機能だ。
来歴を記録することで利用者にAI生成であることを明示するだけではない。生成自体に画像などを使う際にも、CAIで「利用しない」という情報や来歴などがないかが確認される。そうやって、透明性を持った形でクリエイターがコンテンツ制作できるよう配慮しているわけだ。
写真の「ボケ味」調整やHDR編集、動画から「フィラー」の一斉削除も
Adobe Creative Cloud製品における変化の中で、特にAV Watchの読者に興味深いのは、やはり「写真」「動画」に絡む部分だろう。機能としてはすでに発表済みであった部分もあるが、改めてご紹介しておこう。
例えばLightroom。
「ぼかし(レンズ)」機能が搭載された。被写界深度をいじることで、撮影時には存在していなかった「ボケ」を追加できる。
iPhoneをはじめとしたスマートフォンではお馴染みの機能ではあるが、スマホでは撮影時に取得した深度情報を使って加工するのに対し、Lightroomの場合には、過去に撮影したあらゆる画像から深度情報を推定、それを使ってぼかしを追加する。
ビデオについては、本格的に「テキストによる編集」が導入されてきたのが大きい。インタビュービデオなどで音声認識を行ない、それを手がかりに、文章の方を編集すればいい。
すでにこの辺は小寺信良氏の記事で紹介もされているので、それを併読いただけるとわかりやすいだろう。
今回、フィラー(息継ぎ)なども認識し、フィラーだけを検索して一気にカット、という使い方も可能になった。
クリエイティブ・コンテンツニーズ増大に生成AIで備える
こうしたツール群の進化は、確実に作業を楽にしてくれる。
ではなぜ作業を楽にするのか? ストレスのかかる作業は楽になるに越したことはないが、Adobeは2つの観点からその必要性を強調する。
前出・ワドワーニ氏はクリエイティブ・コンテンツのニーズが「2026年には現在の5倍以上に跳ね上がるだろう」と予測を語る。
理由は、様々なメディアがあり、それらのメディアがリアルタイムに活用されるため、そこに合わせて「コンテンツを出し分けていく」機会が増えていくことだ。
Adobeデザインおよび新興製品担当エグゼクティブバイスプレジデント兼CSO(最高戦略責任者)スコット・ベルスキー氏は、2つのコンセプトを比較して語りつつ、今の変化を解説した。
そのコンセプトとは「マクロ・マーケティング」と「アジャイル・マーケティング」だ。
マクロ・マーケティングは従来型のやり方だ。大きな商品キャンペーンのように、企業が計画を立てて全体最適を目指しながら対応する方法だ。
それに対してアジャイル・マーケティングは、ツールを全面的に活用し、ソーシャルメディアなどを介して、機動的に素早く行なうものになる。全社対応というより、部署や支社ごとに「目の前の事象に合わせて素早く」というやり方に近い。
そうなると、確かにコンテンツのニーズは増える。だとすれば、生成AIやテンプレートを活用し、「企業が求める形」で効率的に安心してコンテンツを量産していく必要は出てくる。
Adobeはマーケティングのための「Experience Cloud」というサービスも持っており、Creative Cloudと両輪でビジネスをしている。そういう意味で、彼らが主張する戦略は実にわかりやすく、今のトレンドを切り出したものと言えるだろう。