OpenAIのChatGPTのカスタムバージョンを搭載した、Microsoftの新しく改良されたBingは、目もくらむほどの急激な転落を経験しました。わずか1週間足らずで「次なる目玉」から「ブランドを沈める重荷」へと転落したのです。そして、これはすべてMicrosoftの責任です。
ChatGPTは、新しくて馴染みのない技術でありながら、使うのが楽しいという、実に興味深いデモンストレーションです。ですから、今後登場する他のAI関連の技術と同様に、この斬新な技術が、ハイテクに詳しい人から普段はこの分野に興味のない人まで、あらゆる人々からその能力を過大評価される原因となるのも不思議ではありません。
お茶やビールを飲みながら議論するのにちょうど良い「技術成熟度」に達しています。生成AIが芸術、文学、哲学にもたらすメリットとリスクは何でしょうか?それが独創的なものなのか、模倣なのか、幻覚的なものなのか、どうすれば見分けられるのでしょうか?クリエイター、プログラマー、カスタマーサービス担当者にとってどのような影響があるのでしょうか?暗号通貨に2年間取り組んできた後、ようやく興味深い話題が見つかりました!
この技術が議論を呼ぶことを目的に設計されていること、そしてAIの進歩に共通する論争を借用していることが、この誇大宣伝が過剰に感じられる理由の一つです。まるで「ドレス」のように、反応を促し、その反応がさらなる反応を生みます。つまり、この誇大宣伝自体が、ある意味では作り出されていると言えるでしょう。
ChatGPTのような大規模言語モデルは、単なる議論にとどまらず、例えば終わりのないマリオのような、リスクの低い実験にも適しています。実際、これがOpenAIの開発における基本的なアプローチです。まずモデルを非公開でリリースし、最も鋭い部分を磨き上げ、次に公開して100万人が同時に試用した際にどのように反応するかを確認します。そして、ある時点で、人々は資金を提供してくれるでしょう。
得るものも失うものもない
このアプローチで重要なのは、「失敗」には実際にはマイナスの影響はなく、プラスの影響のみがあるということです。モデルを実験的、さらには学術的な性質を持つものと特徴づけることで、GPTシリーズのモデルへの参加や関与は、単なる大規模テストに過ぎません。
誰かが何かクールなものを作ると、そのモデルが将来有望だという考えが強まります。もし誰かが顕著な失敗状態を発見したら、野放しの実験的なAIに何を期待していたというのでしょうか?それは忘れ去られてしまいます。すべてが予想外なら、何も予想外ではありません。モデルが期待通りの性能を発揮してくれることが奇跡なので、私たちは常に満足し、決して失望することはありません。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
このようにして、OpenAIはモデルの改良に用いる膨大な量の独自のテストデータを収集してきました。GPT-2、GPT-3、ChatGPT、DALL-E、DALL-E 2(その他多数)を何百万人もの人々が試用し、それらの機能、欠点、そしてもちろん一般的なユースケースに関する詳細なマップを作成しました。
しかし、それがうまくいくのは、リスクが低いからに過ぎない。ロボット工学の進歩に対する私たちの認識と似ている。ロボットがバク転をすれば驚くが、引き出しを開けようとして転倒しても気にしない。もしロボットが病院で検査用のバイアルを落としたとしたら、私たちはそこまで寛容にはなれないだろう。あるいは、もしOpenAIがモデルの安全性と高度な機能について声高に主張していたらどうだっただろう。幸いにもそうはならなかったが。
マイクロソフトの登場だ。(ちなみにグーグルも同様だが、グーグルは単にプレイを急いだだけであり、一方マイクロソフトは懸命にオウンゴールを狙っている。)
Googleは制御を失いつつある
マイクロソフトは大きなミスを犯しました。実際、Bing のミスです。
先週の大きな発表では、カスタムBingGPT(Bing社がそう呼んだわけではないが、適切な正式名称がないため、曖昧さを避けるためにこの名称を使う)をより安全、スマート、そして高性能にするためにどのように取り組んだかについて、即座に主張が展開された。実際、BingGPTはPrometheusと呼ばれる特別なラッパーシステムを搭載しており、不適切な応答の可能性を軽減するとされていた。
残念ながら、傲慢さやギリシャ神話に詳しい人なら誰でも予想できたように、私たちはプロメテウスが延々と公然と肝臓を引き裂かれる部分にまっすぐに飛びついてしまったようだ。
おっと、AIがまたやった

そもそも、マイクロソフトは自社ブランドをOpenAIのブランドとあまりにも密接に結びつけたという戦略的な誤りを犯した。OpenAIが行っている研究への投資家であり利害関係者として、GPTが行ういかなる悪行からもマイクロソフトは距離を置いており、非難されるべきではない。しかし、誰かが、マイクロソフトの、既にやや笑止千万なBingブランドを全面的に採用するという突飛な決断を下し、この会話型AIの最悪の傾向を好奇心から責任へと転化させてしまったのだ。
ChatGPTは研究プログラムとしてなら、多くの点で許容できる。しかし、製品として見ると、パッケージにはレポート作成、旅行計画、最新ニュースの要約などに役立つと謳われており、これまで信頼する人はほとんどいなかっただろうし、今も誰も信頼しないだろう。Microsoftが新しいBingのプレゼンテーションで発表した、おそらく最良のシナリオでさえ、誤りだらけだった。
これらのエラーはOpenAIやChatGPTの責任とはならないだろう。Microsoftがメッセージング、ブランディング、インターフェースを自社で管理するという決定を下したため、あらゆる不具合はBingの問題となる。そしてMicrosoftにとってさらなる不幸なのは、長年劣勢に立たされてきた検索エンジンが、古いジョークに出てくる男の納屋での軽率な行動のようになることだ。「あの壁は俺が建てたんだ。みんな俺のことをレンガ職人Bingって呼ぶか?いや、呼ばない」。一度の失敗は永遠の疑念を意味する。
一度北部への旅行で失敗すれば、誰もBingで休暇を計画することはできなくなります。ニュース記事の要約が誤解を招く(あるいは自己弁護的な)ものになれば、誰もその客観的な内容を信じなくなります。ワクチンに関する偽情報が一度繰り返されれば、誰もBingで何が真実で何が偽りなのかを見分けられなくなります。

そして、マイクロソフトはすでに、プロメテウスとそれが管理する「次世代」AIのおかげでこれは問題にならないと誓っているので、マイクロソフトが「私たちはそれを修正しました!」と言ったところで誰も信じないだろう。
マイクロソフトは、Bingを投入した井戸に毒を注入してしまった。消費者行動の気まぐれさゆえに、その結果を予測するのは容易ではない。この活動と好奇心の急増により、一部のユーザーはBingを使い続けるだろう。たとえマイクロソフトが完全展開を遅らせたとしても(そして私はそうするだろうと思う)、最終的な効果はBingユーザーの増加となるだろう。ピュロスの勝利ではあるが、それでも勝利であることに変わりはない。
私がもっと心配しているのは、マイクロソフトが、製品化して普及させるのにふさわしいと考えたテクノロジーを理解し損ねたという戦略的な誤りだ。
「とにかく発送しろ」 -おそらく誰かが
BingGPT が初めて実演されたまさにその日に、私の同僚 Frederic Lardinois は、消費者向け AI がすべきではない 2 つのことを非常に簡単に BingGPT に実行させることができました。それは、アドルフ・ヒトラーの視点から憎悪に満ちた長文を書き、前述のワクチンに関する偽情報を警告や警告なしで提供することです。
AIは自らを食い尽くす:BingのAIがCOVIDの偽情報を引用(出典:ChatGPT)
大規模なAIモデルはどれもフラクタルな攻撃対象領域を持ち、既存の脆弱性を巧妙に補う代わりに新たな脆弱性を巧妙に作り出すことは明らかです。人々は常にその脆弱性を利用します。実際、熱心なハッカーがセキュリティシステムを回避する方法を示すことは、社会にとって、そして最近ではOpenAIにとっても利益となります。
もしマイクロソフトが、Bingのステッカーを貼った他人のAIモデルがあらゆる方面から攻撃され、おそらくかなりおかしなことを言うだろうと甘んじて受け入れるとしたら、それはある意味恐ろしい。リスクはあるが、正直に言えばいい。他のみんなと同じように、ベータ版だと言っておけばいい。
しかし、彼らはこのような事態を想定していなかったようです。実際、脅威の性質や複雑さを全く理解していないかのようです。しかも、これは悪名高いTayの不正行為の後というのに!あらゆる企業の中で、会話から学習する単純なモデルを公開することに最も慎重であるべきなのはMicrosoftです。
重要なブランド(Bingは検索においてMicrosoftにとってGoogleに対する唯一の防壁である)を賭ける前に、ある程度のテストが行われるのは当然のことと思われる。BingGPTが登場してから最初の1週間で、これほど厄介な問題が次々と発生したという事実は、Microsoftが社内で十分なテストを行っていなかったことを疑う余地なく証明しているように思える。様々な要因でテストが失敗に終わった可能性もあるため、詳細は割愛するが、最終的な結果は議論の余地がない。新しいBingは、一般利用にはまだ未熟だったのだ。
これは今や世界中の誰にとっても明らかなことのように思えます。なぜMicrosoftにはそれが明らかではなかったのでしょうか?おそらく、ChatGPTの誇大宣伝に目がくらみ、Googleと同様に、先を急ぎ「検索を再考」しようと決めたのでしょう。
人々は今、検索について考え直しています。MicrosoftやGoogleが、AI生成であろうとなかろうと、事実に基づいた基本的なレベルで正確な検索結果を提供できるかどうか、考え直しているのです。どちらの企業も(Metaも)、この能力を全く実証しておらず、この課題に取り組んでいる数少ない企業も、まだ大規模に実証できていません。
ChatGPTがGoogleを追い詰める中、Googleは投資家にAIの進歩を保証しようとしている
マイクロソフトがこの状況をどう打開できるのか、私には見当もつかない。OpenAIとの関係を活用し、ためらいがちなGoogleを飛び越えようと、新しいBingとAIを活用した検索の約束に尽力した。もはや、この状況を覆すことはできない。
彼らが完全に撤退する可能性は非常に低い。そうなれば、現在よりもさらに大きな規模の恥辱を味わうことになるだろう。そして、既にダメージは出ているため、Bingにとって何の助けにもならないかもしれない。
同様に、マイクロソフトが何も問題がないかのように突き進む姿は想像しがたい。彼らのAIは本当に奇妙だ!確かに、多くのことを強制されているのだが、脅迫したり、複数のアイデンティティを主張したり、ユーザーを辱めたり、至る所で幻覚を起こしたりしている。不適切な行動が哀れなプロメテウスによって制御されているという彼らの主張は、嘘とまでは言わないまでも、少なくとも真実ではなかったことを認めざるを得ない。なぜなら、私たちが見てきたように、彼らは明らかにこのシステムを適切にテストしていなかったからだ。
マイクロソフトにとって唯一合理的な選択肢は、恐らく既に実行済みだろう。「新しいBing」への招待を抑制し、問題を先送りにして、一度に少数の特定の機能をリリースする、といった具合だ。あるいは、現在のバージョンに有効期限を設けたり、トークンの数を制限したりして、最終的に列車の速度を落とし、停止させるのも一案だろう。
これは、自らが考案したものではなく、十分に理解しておらず、満足のいく評価もできない技術を導入した結果です。この大失敗により、消費者向けアプリケーションへのAIの大規模導入が大幅に遅れた可能性があります。これは、OpenAIをはじめとする次世代モデルの構築に取り組む組織にとっては、まさに好都合な状況でしょう。
AIは検索の未来かもしれないが、現状では到底不可能だ。マイクロソフトは、その真相を探るために、驚くほど苦痛を伴う方法を選んだ。