2023年にAIに何を期待するか

2023年にAIに何を期待するか

商業的にかなり成功したある作家はかつてこう書きました。「夜は暗く、恐怖に満ちている。昼は明るく美しく、希望に満ちている。」これは、あらゆるテクノロジーと同様に長所と短所を持つAIにふさわしい比喩です。

例えば、安定拡散(Stable Diffusion)のようなアート生成モデルは、驚くほどの創造性の噴出を招き、アプリや全く新しいビジネスモデルにまで影響を与えています。一方で、オープンソースであることから、悪意のある人物が大規模なディープフェイクを作成することも可能であり、アーティストたちは、自分たちの作品が利益に繋がっていると抗議しています。

2023年のAIの動向はどうなるのでしょうか?規制はAIがもたらす最悪の影響を抑制するのでしょうか?それとも、AIの脅威はもはや封じ込められてしまうのでしょうか?ChatGPTのように、強力で革新的なAIが新たに登場し、かつては自動化の脅威から安全だと思われていた業界に混乱をもたらすのでしょうか?

より多くの(問題のある)アートを生成するAIアプリが期待される

Prisma LabsのAI搭載自撮りアプリ「Lensa」が話題となり、その成功を受けて、今後は類似のアプリが次々と登場することが予想されます。そして、それらのアプリは、NSFW(不適切な画像)画像を作成させられたり、女性の外見を過度に性的に加工したり、改変したりする機能も備えていることが予想されます。

モジラ財団の上級政策研究者、マキシミリアン・ガンツ氏は、生成AIを消費者向け技術に統合することで、そうしたシステムの良い面も悪い面も影響が拡大するだろうと予想していると述べた。

Stable DiffusionのスタートアップStability AIが1億100万ドルを調達

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

例えば、安定拡散モデルはインターネットから数十億枚の画像を入力することで、特定の単語や概念を特定の画像と関連付けることを「学習」しました。テキスト生成モデルは、攻撃的な見解を唱えたり、誤解を招くようなコンテンツを作成したりすることに容易に騙されてしまうことが常態化しています。

オープンリサーチグループ「Knives and Paintbrushes」のメンバーであるマイク・クック氏は、生成AIが今後も大きな、そして問題を抱えながらも変革をもたらす力であり続けるというガンツ氏の見解に同意している。しかし、2023年こそは生成AIが「ついに口先だけでなく行動で示す」年になるべきだと彼は考えている。

プロンプトはTechCrunch、モデルはStability AI、無料ツールDream Studioで生成されました。

「専門家のコミュニティに新しい技術を生み出す動機を与えるだけでは不十分です。技術が私たちの生活に長く浸透するには、誰かに大きな利益をもたらすか、一般大衆の日常生活に意味のある影響を与えるかのどちらかが必要です」とクック氏は述べた。「ですから、生成AIが実際にこのどちらかを達成できるようにするための真剣な取り組みが今後行われると予想していますが、その成功はまちまちです。」

アーティストがデータセットからのオプトアウトの取り組みを主導

DeviantArtは、Stable Diffusionを基盤とし、DeviantArtコミュニティのアートワークを微調整したAIアートジェネレーターをリリースしました。このアートジェネレーターは、DeviantArtの長年のユーザーから激しい非難を浴びました。彼らは、アップロードされたアートをシステムの学習に利用するプラットフォームの透明性の欠如を批判しました。

最も人気のあるシステムの開発元であるOpenAIとStability AIは、自社のシステムが生成する有害コンテンツの量を制限するための対策を講じていると述べています。しかし、ソーシャルメディアを利用する多くの世代の現状を見ると、まだ改善の余地があることは明らかです。

「こうした問題に対処するには、データセットを積極的に管理する必要があり、不利な立場に立たされがちなコミュニティーも含め、綿密な精査を受ける必要がある」とガンツ氏は述べ、このプロセスをソーシャルメディアにおけるコンテンツ管理をめぐる継続的な論争に例えた。

ShutterstockがOpenAIのDALL-E 2を統合し、貢献アーティスト向けの基金を設立

Stable Diffusionの開発に多額の資金を提供しているStability AIは最近、世論の圧力に屈し、次世代Stable Diffusionモデルのトレーニングに使用されるデータセットからアーティストがオプトアウトできるようにすることを示唆しました。権利者は、数週間後にトレーニングが開始される前に、ウェブサイトHaveIBeenTrained.comを通じてオプトアウトを申請できるようになります。

OpenAIはそのようなオプトアウトの仕組みを提供しておらず、Shutterstockのような組織と提携して画像ギャラリーの一部をライセンス供与することを好んでいます。しかし、Stability AIと同様にOpenAIが直面している法的および広報上の逆風を考えると、OpenAIが同様の措置を取るのは時間の問題でしょう。

GitHub、法的疑問が未解決のままCopilot for Businessプランを開始

特に英国が、公開データを使って訓練されたシステムは厳密に非商用目的で使用されるという要件を削除する規則を検討しているため、来年は批判が強まることが予想される。

オープンソースと分散型の取り組みは今後も成長を続けるだろう

2022年は、OpenAIとStability AIを中心とする少数のAI企業が市場を席巻しました。しかし、Gahntz氏の言葉を借りれば、新しいシステムを構築する能力が「リソースが豊富で強力なAIラボ」の域を超えていくにつれ、2023年には振り子は再びオープンソースへと向かうかもしれません。

コミュニティアプローチは、システムの構築と展開の際に、より綿密な調査につながる可能性がある、と彼は述べた。「モデルとデータセットがオープンであれば、これまで実施が非常に困難であった、生成AIに関連する多くの欠陥や害を指摘する重要な研究が、はるかに多く可能になるだろう。」

オープンフォールド
画像クレジット:タンパク質の形状を予測するオープンソース AI システム OpenFold の結果と、DeepMind の AlphaFold2 の比較。

コミュニティ重視の取り組みの例としては、EleutherAIとBigScienceによる大規模言語モデルが挙げられます。BigScienceはAIスタートアップのHugging Faceが支援する取り組みです。Stability AI自身も、音楽生成に特化したHarmonaiや、バイオテクノロジー実験の緩やかな集合体であるOpenBioMLなど、多くのコミュニティに資金を提供しています。

高度な AI モデルをトレーニングして実行するには依然として資金と専門知識が必要ですが、オープンソースの取り組みが成熟するにつれて、分散型コンピューティングが従来のデータ センターに挑戦する可能性があります。

BigScienceは、オープンソースのPetalsプロジェクトを最近リリースし、分散開発の実現に向けて一歩前進しました。Petalsは、Folding@homeと同様に、人々が自身のコンピューティング能力を共有することで、通常はハイエンドGPUやサーバーが必要となる大規模なAI言語モデルを実行できるようにします。

Petalsは、テキスト生成AIを実行するための無料の分散ネットワークを構築しています。

「現代の生成モデルの学習と実行には、計算コストがかかります。ざっと見積もっても、ChatGPTの1日あたりの費用は約300万ドルとされています」と、アレンAI研究所の上級研究科学者であるチャンドラ・バガヴァトゥラ氏はメールで述べた。「これを商業的に実現可能とし、より広く利用できるようにするためには、この問題に対処することが重要になるでしょう。」

しかしチャンドラ氏は、手法とデータが独占的である限り、大規模な研究室は競争上の優位性を維持し続けるだろうと指摘する。最近の例として、OpenAIはテキストプロンプトを与えると3Dオブジェクトを生成できるモデル「Point-E」をリリースした。しかし、OpenAIはこのモデルをオープンソース化したものの、Point-Eのトレーニングデータの出所を開示せず、そのデータも公開しなかった。

OpenAI ポイントE
Point-Eは点群を生成する。画像クレジット: OpenAI

「オープンソース化と分散化の取り組みは確かに価値があり、より多くの研究者、実務家、そしてユーザーに利益をもたらすと考えています」とチャンドラ氏は述べた。「しかし、オープンソース化されているにもかかわらず、リソースの制約により、最良のモデルが多くの研究者や実務家にとってアクセスできない状況が依然として残っています。」

AI企業は新たな規制への対応に注力

EUのAI法のような規制は、企業のAIシステムの開発と導入方法に変化をもたらす可能性があります。ニューヨーク市のAI採用法のような、より地域的な取り組みも同様に変化をもたらす可能性があります。この法律では、採用、雇用、昇進にAIやアルゴリズムベースの技術を利用する場合、使用前にバイアスがないか監査を受けることが義務付けられています。

チャンドラ氏は、事実と異なる情報を吐き出す傾向など、生成AIの技術的な欠陥がますます明らかになってきていることを鑑みて、こうした規制は必要だと考えている。

「そのため、ミスが大きなコストにつながる可能性のある多くの分野、例えば医療分野への生成AIの適用は困難です。さらに、不正確な情報を容易に生成できるため、誤情報や偽情報といった問題も生じます」と彼女は述べた。「しかし、AIシステムはすでに道徳的・倫理的な含意を伴う意思決定を行っています。」

EUのAI法はオープンソースの取り組みに萎縮効果をもたらす可能性があると専門家が警告

しかし、来年は規制の脅威が高まるばかりでしょう。誰かが罰金や起訴を受ける前に、規則や裁判をめぐる論争がさらに激化するでしょう。しかし、AI法のリスクカテゴリーなど、今後の法律の中で最も有利なカテゴリーで、企業は依然としてポジションを争う可能性があります。

現行の規則では、AIシステムを4つのリスクカテゴリーに分類し、それぞれ要件と審査レベルが異なります。最もリスクの高いカテゴリーである「高リスク」AI(例:信用スコアリングアルゴリズム、ロボット手術アプリ)は、欧州市場への参入が許可される前に、一定の法的、倫理的、技術的基準を満たす必要があります。最もリスクの低いカテゴリーである「最小または無リスク」AI(例:スパムフィルター、AI対応ビデオゲーム)は、ユーザーがAIシステムとやり取りしていることをユーザーに認識させるなどの透明性に関する義務のみを課します。

ワシントン大学の博士課程の学生であるオス・キーズ氏は、企業が自らの責任と規制当局に対する注目度を最小限に抑えるために、リスクレベルを最低にすることを目指すのではないかと懸念を表明した。

「その懸念はさておき、(AI法案は)私が見ている中では最も前向きな法案です」と彼らは言った。「議会からは特に何も出てきていませんが」

しかし投資は確実なものではない

ガンツ氏は、AIシステムが大多数の人にとっては十分に機能するとしても、一部の人にとっては深刻な害を及ぼす場合、企業がそれを広く利用できるようにするためには「まだ多くの課題が残っている」と主張する。「これらすべてにはビジネス上の根拠もあります。もしモデルが多くの混乱した情報を生成するなら、消費者はそれを好まないでしょう」と彼は付け加えた。「しかし、これは明らかに公平性の問題でもあります。」

特に投資家は将来有望な生成AIに資金を投入することに熱心であるようにみえるため、企業が来年この議論に納得するかどうかは不明だ。

安定拡散をめぐる論争の渦中、Stability AIはCoatueやLightspeed Venture Partnersといった著名な出資者から、10億ドルを超える評価額で1億100万ドルを調達しました。OpenAIは、Microsoftからのさらなる資金調達に向けて高度な協議に入っており、評価額は200億ドルに達すると見られています。(Microsoftは2019年にOpenAIに10億ドルを投資しています。)

もちろん、それらは例外である可能性もあります。

ジャスパーAI
画像クレジット:ジャスパー

Crunchbaseによると、自動運転企業のCruise、Wayve、WeRide、そしてロボット企業のMegaRoboを除けば、今年調達資金の面でトップのAI企業はソフトウェア系だった。ウェブコンテンツ向けにAIによるレコメンデーションを提供するサービスを提供するContentsquareは、7月に6億ドルの資金調達ラウンドを完了した。「会話型分析」(コールセンターの指標など)と会話型アシスタント向けのソフトウェアを販売するUniphoreは、2月に4億ドルを調達した。一方、営業担当者やマーケティング担当者にリアルタイムでデータに基づいたレコメンデーションを提供するAI搭載プラットフォームを提供するHighspotは、1月に2億4800万ドルを調達した。

投資家は、生成AIほど「魅力的」ではないとしても、顧客クレームの自動分析やセールスリードの生成といった、より安全な分野に賭ける可能性が高いでしょう。注目を集める大規模な投資がないわけではありませんが、それらは影響力のあるプレーヤーのために留保されるでしょう。