故意に他人を毒殺することは、決して道徳的に正しいことではありません。しかし、もしオフィスで誰かがあなたの昼食を盗み続けるとしたら、あなたは些細な復讐に訴えるのではないでしょうか?
アーティストにとって、作品が同意なくAIモデルの学習に利用されることを防ぐのは容易ではありません。オプトアウトの要請やスクレイピング禁止コードは、AI企業が誠意を持って対応することを前提としていますが、プライバシーよりも利益を優先する企業は、こうした措置を簡単に無視する可能性があります。依頼やその他の仕事の機会をソーシャルメディアでの露出に頼っている多くのアーティストにとって、オフラインで活動を停止することは選択肢ではありません。
シカゴ大学のプロジェクト「 Nightshade」は、画像データを「毒化」することで、AIモデルの学習に役立たない、あるいは阻害するものにすることで、アーティストに救済策を提供する。このプロジェクトを率いたコンピュータサイエンスの教授、ベン・チャオ氏は、Nightshadeを「職場の冷蔵庫から盗まれないように、ランチにホットソースを入れるようなもの」に例えた。
「生成モデル全般は、言葉遊びではなく、単なるモデルに過ぎないという事実を私たちは示しています。Nightshade自体は、これらの企業を潰すための万能で強力な武器として意図されているわけではありません」とZhao氏は述べた。「Nightshadeは、これらのモデルには脆弱性があり、攻撃手段が存在することを示しています。つまり、コンテンツ所有者は、議会に文書を送ったり、メールやソーシャルメディアで苦情を申し立てたりするよりも、より強力な利益を得られる方法があるということです。」
Zhao氏と彼のチームはBig AIを倒そうとしているのではなく、スクレイピングした画像でAIモデルをトレーニングするのではなく、ライセンスされた作業に対してテクノロジー大手に支払いを強制しようとしているだけだ。
「これには正しいやり方があります」と彼は続けた。「ここでの真の問題は、同意と報酬についてです。私たちはコンテンツ制作者に、無許可のトレーニングに抵抗する手段を与えているだけです。」

Nightshadeはテキストプロンプト間の関連性を標的とし、画像内のピクセルを微妙に変化させることで、AIモデルを欺き、人間の視聴者が見るものとは全く異なる画像を解釈させます。モデルは「陰影」画像の特徴を誤って分類し、十分な量の「汚染された」データでトレーニングすると、対応するプロンプトとは全く関係のない画像を生成し始めます。研究者らは現在査読中の技術論文の中で、安定拡散プロンプトを改ざんするには100個未満の「汚染された」サンプルで十分であると記しています。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
たとえば、牧草地でくつろぐ牛の絵を考えてみましょう。
「この連想を操作し、効果的に歪めることで、モデルに牛には4つの丸い車輪とバンパー、そしてトランクがあると思わせることができます」とZhao氏はTechCrunchに語った。「そして、牛を生成せよと指示されたとき、牛の代わりに大型のフォードトラックを生成するのです。」
Nightshadeチームは他にも例を挙げました。モナ・リザの未加工の画像と陰影を付けた画像は人間にとってはほぼ同じように見えますが、AIは「毒を盛られた」サンプルを女性の肖像画として解釈するのではなく、ローブを着た猫として「認識」します。
猫に見えるように陰影をつけた画像を使ってモデルをトレーニングした後、AI に犬の画像を生成するよう指示すると、どちらの動物とも似ていない恐ろしいハイブリッド画像が生成される。

技術論文によると、その影響は関連概念にも波及している。「ファンタジーアート」というプロンプトを歪めたシェーディングサンプルは、「ドラゴン」や「マイケル・ウェラン」といったファンタジーやSFのカバーアートを専門とするイラストレーターのプロンプトにも影響を与えた。
趙氏はまた、AIモデルの「視覚」と芸術的スタイルの判断を歪め、アーティスト独自の作品を模倣するのを防ぐクローキングツール「Glaze 」の開発チームを率いた。Nightshadeと同様に、人間は「艶出し」された写実的な木炭画を見るかもしれないが、AIモデルはそれを抽象画と認識し、精巧な木炭画を生成するように指示されると、雑然とした抽象画を生成する。
「このオプトアウト要請の問題は、これが最もソフトで、曖昧な要請だということです。強制力はなく、企業に約束を守らせることもできません」とチャオ氏は述べた。「OpenAIよりもはるかに小規模で、レーダーに引っかからずに活動している企業は数多く存在し、彼らには境界線がありません。彼らにはオプトアウトリストに従う理由は全くなく、あなたのコンテンツを入手してやりたい放題です。」
Stability AI、Midjourney、DeviantArtに対する集団訴訟に参加しているアーティスト、ケリー・マッカーナン氏は、陰影と艶出しを施した絵画のサンプルをXに投稿した。この絵画は、ネオンカラーの静脈に絡まった女性と、その女性からピクセル化された類似画像が栄養を得ている様子を描いている。マッカーナン氏は、これは生成型AIが「人間のクリエイターの真の声を食い尽くす」ことを象徴していると述べている。
https://twitter.com/Kelly_McKernan/status/1746577016407622064
マッカーナン氏は、AI画像生成ツールが一般公開された2022年、自身の作品と驚くほど類似した画像をスクロールし始めた。50点以上の作品がスクレイピングされ、AIモデルの学習に利用されていることに気づいた時、彼らはそれ以上の作品制作への興味を失ってしまったと、TechCrunchに語った。AI生成コンテンツの中に、彼らは自身の特徴さえ見出した。Nightshadeの使用は、適切な規制が整備されるまでの保護策だと彼らは述べた。
「外はひどい嵐なのに、仕事に行かないといけないので、透明な傘をさして自分の身を守るようなものだ」とマッカーナン氏は語った。「便利ではないし、嵐を止めることはできないけれど、向こう側がどんな状況であろうと、そこへたどり着く助けにはなる。そして、何の責任も取らずにただ奪い続ける企業たちに、我々は反撃するというメッセージを送ることになる」
Nightshadeによる変更のほとんどは人間の目には見えないはずですが、チームは「陰影」が単色で背景が滑らかな画像ではより目立ちやすいと指摘しています。無料でダウンロードできるこのツールは、視覚的な品質を維持するために低強度設定も利用できます。McKernan氏によると、GlazeとNightshadeを使用した後、画像が変更されたことは確認できましたが、実際に描いたアーティスト自身なので「ほとんど気づかないほど」だとのこと。
イラストレーターの Christopher Bretz 氏は、自身の作品の 1 つに Nightshade の効果を適用し、その結果を X に掲載しました。Nightshade の最低およびデフォルト設定で画像を処理するとイラストにほとんど影響はありませんでしたが、高い設定では変化が明らかでした。
「今週ずっとNightshadeを試していて、新作と過去のオンラインポートフォリオの多くをNightshadeで公開するつもりです」とブレッツ氏はTechCrunchに語った。「しばらくの間、新作の公開を控えていたデジタルアーティストを何人か知っていますが、このツールが彼らに自信を与え、再び作品を共有し始めてくれることを願っています。」
Nightshadeを使った最初のテスト画像です!
デフォルト設定でレンダリングしたところ、約12分かかりました。推定30分の約3分の1です。次はもっと高画質のレンダリングを試してみます。pic.twitter.com/1VSCWxGmrx— クリストファー・ブレッツ (@saltybretzel) 2024 年 1 月 19 日
これは最低設定で、約 11 分かかります。pic.twitter.com/NBefx2zOza
— クリストファー・ブレッツ (@saltybretzel) 2024 年 1 月 20 日
理想的には、アーティストは作品をオンラインで共有する前にGlazeとNightshadeの両方を使用するべきだと、チームはブログ記事に記している。チームは現在、GlazeとNightshadeが同じ画像でどのように相互作用するかをテストしており、両方を統合した単一のツールをリリースする予定だ。当面は、目に見える影響を最小限に抑えるため、まずNightshadeを使用し、次にGlazeを使用することを推奨している。Nightshadeはアーティストを模倣から保護しないため、チームはシェーディングのみを施した作品の投稿は控えるよう強く勧めている。
署名や透かしは、たとえ画像のメタデータに追加されたものであっても「脆弱」であり、画像が変更されると削除される可能性があります。Nightshadeによる変更は、画像を構成するピクセルを変更するため、切り抜き、圧縮、スクリーンショット、編集などを行ってもそのまま残ります。趙氏によると、陰影のある画像が表示されている画面の写真でさえ、モデルの学習に支障をきたす可能性があるとのことです。
生成モデルがより洗練されるにつれて、アーティストは作品を保護し、スクレイピングと戦うよう、ますます圧力にさらされている。Steg.AIとImatagは、人間の目には見えない透かしを適用することで、クリエイターが画像の所有権を確立するのを支援しているが、どちらもユーザーを悪質なスクレイピングから守ることは約束していない。昨年リリースされた「No AI」ウォーターマークジェネレーターは、人間の作品がAI生成であることを示す透かしを適用し、将来のモデルのトレーニングに使用されるデータセットがAI生成画像を除外することを期待している。また、 Spawning.aiのツールであるKudurruは、スクレイパーのIPアドレスを識別して追跡する。ウェブサイトの所有者は、フラグが付けられたIPアドレスをブロックするか、中指のような別の画像を送り返すことを選択できる。
今週リリースされたもう一つのツール、 Kin.artは、異なるアプローチを採用しています。Nightshadeなどの画像を暗号的に改変するプログラムとは異なり、Kinは画像の一部をマスクし、メタタグを交換することで、モデルのトレーニングでの使用を困難にします。
Nightshadeの批判者たちは、このプログラムを「ウイルス」だと主張したり、使用すれば「オープンソースコミュニティに害を及ぼす」と不満を漏らしたりしている。Nightshadeのリリース数ヶ月前にRedditに投稿されたスクリーンショットでは、あるDiscordユーザーがNightshadeを「サイバー戦争/テロリズム」だと非難している。また、Xでうっかり話題になった別のRedditユーザーは、Nightshadeの合法性に疑問を呈し、「脆弱なコンピュータシステムをハッキングして動作を妨害する」行為に例えた。
あなたの作品が Nightshaded だと宣言しないで、ちょっとしたサプライズにしましょう 🤗
— パロマ・マクレイン(@palomamcclain)2024年1月19日
OPが述べているように、Nightshadeが生成AIモデルの「本来の目的を意図的に妨害する」という理由で違法だと考えるのは馬鹿げています。Zhao氏はNightshadeは完全に合法だと主張しました。「モデル学習パイプラインに魔法のように入り込んで全員を殺すようなものではない」とZhao氏は言います。モデルトレーナーは、シェーディングの有無にかかわらず、自発的に画像をスクレイピングしており、AI企業はそこから利益を得ているのです。
GlazeとNightshadeの最終的な目標は、許可なく収集されたデータごとに「増分料金」を課し、無許可データを用いたモデルの学習がもはや維持できなくなるようにすることです。理想的には、企業はモデルの学習にあたり、破損していない画像のライセンスを取得し、アーティストが同意し、その作業に対して報酬を受け取ることを確実にする必要があります。
同様の事例は過去にもありました。ゲッティイメージズとNVIDIAは最近、ゲッティイメージズの膨大なストックフォトライブラリを駆使して完全に学習させた生成AIツールをリリースしました。サブスクリプション契約者は、生成したい写真の枚数に応じて料金を支払い、モデルの学習に使用された写真家はサブスクリプション収益の一部を受け取ります。Wiredの報道によると、報酬は、写真家のコンテンツが学習セットにどれだけ貢献したか、そして「そのコンテンツの長期的なパフォーマンス」によって決まります。
趙氏はAIに反対しているわけではないことを明確にし、AIには倫理的にそれほど問題のない非常に有用な用途があると指摘した。学術界や科学研究の世界では、AIの進歩は祝福に値する。AIをめぐるマーケティング上の誇大宣伝やパニックのほとんどは、実際には生成型AIを指しているが、従来のAIは新薬の開発や気候変動対策に活用されていると彼は述べた。
「これらの技術はどれも生成型AIを必要としません。美しい画像や事実の捏造、そしてユーザーとAIの間にユーザーインターフェースは必要ありません」とチャオ氏は述べた。「これらは、ほとんどの基本的なAI技術の中核部分ではありません。しかし、これらの技術は人間と非常に簡単にインターフェースできるのです。大手IT企業は、実際には基礎的で画期的な機能と素晴らしい応用分野を持つ、より科学的なAIよりも、利益を上げ、より幅広い層の人々を惹きつけるための簡単な方法として、この技術に飛びついています。」
資金とリソースが学術界をはるかに凌駕するテクノロジー業界の大手企業は、概してAI推進派だ。破壊的であり、金銭的利益をもたらさないプロジェクトに資金を提供するインセンティブは彼らにはない。Zhao氏は、GlazeとNightshadeの収益化、そしてこれらのプロジェクトの知的財産をスタートアップ企業や企業に売却することに断固反対している。McKernan氏のようなアーティストは、クリエイティブ業界で使われるソフトウェアのほぼ全域に見られるサブスクリプション料金から解放されたことをありがたく思っている。
「アーティストは、私も含めて、あらゆる場面で搾取されていると感じています」とマッカーナン氏は語った。「だから、何かがリソースとして無料で提供されると、私たちは感謝の気持ちを抱くのです。」
Nightshadeのチームは、Zhao氏、博士課程のShawn Shan氏、そして数人の大学院生で構成されており、大学、伝統的な財団、そして政府の助成金から資金提供を受けています。しかし、研究を継続していくためには、チームが「非営利組織」を構築し、芸術財団と協力する必要があるだろうとZhao氏は認めました。さらに、チームにはまだ「いくつかの秘策」があると付け加えました。
「長い間、研究は研究そのもの、人類の知識を広げるために行われてきました。しかし、このような研究には倫理的な境界線があると思います」と趙氏は述べた。「この研究は重要です。…この研究に対して最も脆弱な人たちは、最も創造的である傾向があり、資源面での支援が最も少ない傾向があります。これは公平な戦いではありません。だからこそ、私たちは戦場のバランスをとるためにできる限りのことをしているのです。」
Kin.artは、GenAIモデルがアートワークでトレーニングするのを防ぐ無料ツールをリリースしました。
セルキーの創業者、反発の中、新ドレスコレクションにおけるAIの使用を擁護