アドビは、新しい画像生成モデルがこれまでで最高であると主張している。

アドビは、新しい画像生成モデルがこれまでで最高であると主張している。

Adobe の生成 AI モデル ファミリーである Firefly は、クリエイターの間ではあまり評判が良くありません。

特にFirefly画像生成モデルは、Midjourney、OpenAIのDALL-E 3、その他の競合製品と比べて期待外れで欠陥があると批判されてきました。手足や風景が歪んでしまい、プロンプトのニュアンスが伝わりにくい傾向があるからです。しかし、Adobeは今週開催されたMax Londonカンファレンスで第3世代モデル「Firefly Image 3」をリリースし、この状況を好転させようとしています。

Photoshop(ベータ版)とAdobeのFireflyウェブアプリで現在利用可能なこのモデルは、より長く複雑なプロンプトやシーンの理解能力に加え、照明とテキスト生成機能の向上により、以前のモデル(画像1と画像2)よりも「リアル」な画像を生成します。Adobeによると、タイポグラフィ、図像、ラスター画像、線画などをより正確にレンダリングできるようになり、「詳細な特徴」と「多様な気分や表情」を持つ密集した群衆や人物の描写が「大幅に」向上しています。

私の簡単な非科学的なテストでは、画像 3 は画像 2 よりも進歩しているように見えます

画像3は私自身は試せませんでしたが、Adobe PRチームからモデルからの出力とプロンプトがいくつか送られてきたので、Web上の画像2で同じプロンプトを実行し、画像3の出力と比較するためのサンプルを取得することができました。(画像3の出力は恣意的に選ばれたものである可能性もあることをご承知おきください。)

画像 3 のこのヘッドショットの照明と、その下にある画像 2 のヘッドショットの照明を比較してください。

アドビ ファイアフライ
画像3より。プロンプト:「若い女性のスタジオポートレート」。画像クレジット: Adobe
アドビ ファイアフライ
上記と同じプロンプト(画像2より)。画像クレジット: Adobe

画像 3 の出力は、画像 2 のサンプルにはほとんど見られない影やコントラストがあり、私の目にはより詳細でリアルに見えます。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

以下は、Image 3 のシーン理解の様子を示す一連の画像です。

アドビ ファイアフライ
画像3より。プロンプト:「スタジオで机に座り、たくさんの絵を前に物思いにふけりながら、幻想的な雰囲気を漂わせるアーティスト。」画像クレジット: Adobe
アドビ ファイアフライ
「スタジオで机に座り、たくさんの絵を前に物思いにふけるアーティスト。まるで幽玄な雰囲気を漂わせているようだ。」画像2より。画像クレジット: Adobe

画像2のサンプルは、画像3の出力と比較すると、ディテールのレベルと全体的な表現力においてかなり基本的なものであることに注意してください。画像3のサンプルでは、​​シャツを着た被写体(腰のあたり)に若干の不自然さがありますが、ポーズは画像2の被写体よりも複雑です。(画像2の服装も少しずれています。)

Image 3 の改善点の一部は、間違いなく、より大規模で多様なトレーニング データセットによるものです。

訴訟を回避し、画像を無差別にトレーニングする生成AIベンダー(OpenAI、Midjourneyなど)よりも「倫理的な」選択肢としての地位を確立するために、AdobeはトレーニングデータセットへのAdobe Stock貢献者に報酬を支払うプログラムを導入しています。(ただし、このプログラムの条件はかなり不透明であることに留意してください。)物議を醸しているのは、AdobeがFireflyモデルをAI生成画像でトレーニングしていることです。これはデータロンダリングの一種だと考える人もいます。

もちろん、多様でより「倫理的に」提供されたトレーニングデータも、コンテンツフィルターやその他の安全対策も、完璧に欠陥のない体験を保証するものではありません。画像2で中指を立てる人々をユーザーが生成しているのを見てください。画像3の真のテストは、コミュニティがそれを手に入れたときに行われます。

AIを活用した新機能

Image 3 は、強化されたテキストから画像への変換機能以外にも、Photoshop のいくつかの新しい機能を強化します。

Image 3に新たに搭載された「スタイルエンジン」と、新たに追加された自動スタイル設定の切り替え機能により、モデルはより幅広い色、背景、被写体のポーズを生成できるようになりました。これらの情報は「参照画像」に取り込まれ、ユーザーはこのオプションを使用して、将来生成するコンテンツの色やトーンを合わせたい画像に基づいてモデルを調整できます。

3つの新しい生成ツール、「背景生成」、「類似画像生成」、「ディテール強調」は、Image 3を活用して画像に精密な編集を加えます。「背景生成」(その名の通り)は、既存の画像に溶け込む背景を生成して置き換えます。一方、「類似画像生成」は、写真の選択した部分(人物や物体など)にバリエーションを与えます。「ディテール強調」は、画像を「微調整」して、シャープネスと鮮明度を向上させます。

これらの機能に聞き覚えがあるとしたら、それはFireflyウェブアプリで少なくとも1ヶ月前からベータ版が公開されていたからです(Midjourneyではそれよりずっと前から)。今回、これらの機能がPhotoshopにベータ版として初めて登場します。

Web アプリについて言えば、Adobe は AI ツールへのこの代替ルートを無視しているわけではありません。

Image 3のリリースに合わせて、FireflyウェブアプリにStructure ReferenceとStyle Referenceが追加されます。Adobeはこれらを「クリエイティブコントロールを向上させる」ための新たな手段として売り込んでいます(どちらも3月に発表されましたが、現在では広く利用可能になりつつあります)。Structure Referenceを使うと、参照画像の「構造」に一致する新しい画像(例えば、レースカーの正面図)を生成できます。Style Referenceは、基本的にはスタイル転送の別名で、画像の内容(例えば、アフリカのサファリのゾウ)を維持しながら、対象画像のスタイル(例えば、鉛筆スケッチ)を模倣します。

構造参照の動作は次のとおりです。

アドビ ファイアフライ
オリジナル画像。画像クレジット: Adob​​e
アドビ ファイアフライ
構造参照で変換。画像クレジット: Adob​​e

スタイルリファレンス:

アドビ ファイアフライ
オリジナル画像。画像クレジット: Adob​​e
アドビ ファイアフライ
スタイルリファレンスで変換。画像クレジット: Adob​​e

Adobeに、これらのアップグレードに伴い、Fireflyの画像生成サービスの価格が変更になるかどうか尋ねてみた。現在、Fireflyのプレミアムプランの最安値は月額4.99ドルで、Midjourney(月額10ドル)やOpenAI(DALL-E 3は月額20ドルのChatGPT Plusサブスクリプションで利用可能)といった競合サービスよりも安い。