AIのように急速に変化する業界に追いつくのは至難の業です。AIがあなたの代わりにそれをこなしてくれるようになるまで、機械学習の世界における最近の話題や、私たちが単独では取り上げなかった注目すべき研究や実験をまとめてご紹介します。
ちなみに、TechCrunchは近々AIニュースレターを開設する予定です。どうぞお楽しみに。それまでの間、これまで月2回程度だった半定期的なAIコラムの配信頻度を週1回に増やしますので、今後の号にもご期待ください。
今週のAI業界では、OpenAIが(Googleの懸命な努力にもかかわらず)製品の発表だけでなく、宮廷内の陰謀も絡めて、再びニュースサイクルを席巻した。同社はこれまでで最も高性能な生成モデルGPT-4oを発表したが、そのわずか数日後には、「超知能」AIシステムの暴走を防ぐための制御開発という課題に取り組んでいたチームを事実上解散させた。
チームの解散は予想通り、多くの注目を集めました。私たちの報道も含め、OpenAIは前述のGPT-4oのような新製品の発売を優先し、チームの安全性研究を軽視したと示唆されています。最終的に、チームの共同リーダーであるJan Leike氏とOpenAIの共同創設者Ilya Sutskever氏の辞任に至りました。
超知能AIは現時点では理論上の話にとどまっており、現実的ではありません。テクノロジー業界が、人間が実行できるあらゆるタスクを実行できるAIを開発するために必要なブレークスルーをいつ達成するのか、あるいは達成できるのかどうかさえも明らかではありません。しかし、今週の報道は、OpenAIの経営陣、特にCEOのサム・アルトマン氏が、安全対策よりも製品開発を優先する傾向を強めているという事実を裏付けているように思われます。
アルトマン氏は、昨年11月に開催されたOpenAI初の開発者会議でAIを活用した機能のリリースを急ぎすぎたことで、サツケヴァー氏を「激怒させた」と報じられている。また、ジョージタウン大学セキュリティ・新興技術センター所長で、OpenAIの元理事でもあるヘレン・トナー氏を批判したとされている。トナー氏が共同執筆した論文は、OpenAIの安全性へのアプローチを批判的に論じており、アルトマン氏はトナー氏を理事から外そうとしたほどだった。
ここ1年ほど、OpenAIはチャットボットストアをスパムで埋め尽くし、YouTubeの利用規約に違反して(とされる)データを取得していた。その一方で、AIにポルノや残虐な描写を生成させるという野望を公言していた。確かに、同社では安全性が後回しにされているように見える。そして、OpenAIの安全性研究者の間では、自分たちの研究は他の場所でより適切にサポートされるべきだという結論に至っている人が増えている。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
ここ数日間で注目されたその他の AI 関連ニュースは次のとおりです。
- OpenAI + Reddit: OpenAIに関する新たなニュースとして、同社はソーシャルサイトRedditのデータをAIモデルの学習に利用することでRedditと合意しました。ウォール街はこの合意を歓迎しましたが、Redditユーザーはそれほど喜ばないかもしれません。
- GoogleのAI: Googleは今週、年次開発者会議「I/O」を開催し、数多くのAI製品を発表しました。動画生成ツール「Veo」から、Google検索のAIによる検索結果整理、そしてGoogle Geminiチャットボットアプリのアップグレードまで、様々なAI製品をご紹介します。
- アンスロピックがクリーガー氏を採用: Instagramの共同創業者の一人であり、最近ではパーソナライズされたニュースアプリArtifact(TechCrunchの親会社Yahooが最近買収)の共同創業者でもあるマイク・クリーガー氏が、アンスロピック初の最高製品責任者(CPO)として入社します。クリーガー氏は、同社のコンシューマー向けとエンタープライズ向けの取り組みの両方を統括します。
- 子供向けAI: Anthropicは先週、開発者が自社のAIモデルを基盤とした子供向けアプリやツールを開発できるようにすると発表しました。ただし、一定のルールに従うことが条件となります。注目すべきは、Googleなどの競合他社が、低年齢層向けアプリへの自社AIの組み込みを禁止している点です。
- AI映画祭: AIスタートアップのRunwayは今月初め、自身2回目となるAI映画祭を開催しました。映画祭で特に印象に残ったのは、AIではなく、より人間的な要素から生まれた瞬間の数々でした。
さらなる機械学習
今週はOpenAIからの離脱でAIの安全性が最優先事項となっているのは明らかですが、Google DeepMindは新たな「Frontier Safety Framework」で前進を続けています。これは基本的に、あらゆる暴走能力を特定し、できれば阻止するための組織戦略です。AGIに限らず、マルウェア生成器の暴走などにも適用可能です。

このフレームワークは3つのステップで構成されています。(1) 開発パスをシミュレートすることで、モデル内の潜在的に有害な機能を特定する。(2) モデルを定期的に評価し、既知の「クリティカルな機能レベル」に達したことを検知する。(3) (他者または自身による)情報漏洩や問題のある展開を防ぐための緩和計画を適用する。ここにはより詳細な説明があります。一見当たり前の一連のアクションのように聞こえるかもしれませんが、形式化することが重要です。そうしないと、誰もが場当たり的に対応することになってしまうからです。こうして、悪質なAIが生まれてしまうのです。
ケンブリッジ大学の研究者たちは、かなり異なるリスクを特定しました。彼らは、故人のデータを使って訓練し、故人の外見的な模倣を提供するチャットボットの蔓延を当然ながら懸念しています。(私もそう思いますが)このコンセプト自体に多少の嫌悪感を覚える人もいるかもしれませんが、注意すれば、悲しみのケアなど様々な場面で活用できる可能性があります。問題は、私たちが注意を払っていないことです。

「AIのこの分野は倫理的な地雷原です」と、主任研究者のカタジナ・ノヴァチク=バシンスカ氏は述べています。「デジタル不死の社会的・心理的リスクをいかに軽減するか、今から考え始める必要があります。なぜなら、この技術はすでに存在しているからです。」研究チームは、Philosophy & Technology誌に掲載された論文の中で、数多くの詐欺、潜在的な悪影響と好影響を特定し、この概念全般(偽サービスを含む)について議論しています。ブラック・ミラーが再び未来を予言する!
AIのあまり不気味ではない応用として、MITの物理学者たちは、物理システムの位相や状態を予測するための(彼らにとって)有用なツールを研究しています。これは通常、統計的な作業であり、複雑なシステムでは煩雑になることがあります。しかし、機械学習モデルを適切なデータで学習させ、システムの既知の物質特性を基盤とすることで、はるかに効率的な方法が得られます。これは、機械学習が先端科学の分野にもニッチな領域を見つけつつあることを示す、もう一つの例と言えるでしょう。
コロラド大学ボルダー校では、災害管理におけるAIの活用について議論が交わされています。この技術は、必要な資源の迅速な予測、被害状況のマッピング、さらには救援隊員の訓練などに役立つ可能性がありますが、生死に関わる状況への適用には(当然のことながら)躊躇する声も上がっています。

アミール・ベザダン教授は、この取り組みを前進させようとしており、「人間中心のAIは、チームメンバー、生存者、そして関係者間の協力、理解、そして包括性を促進することで、より効果的な災害対応と復旧活動につながります」と述べています。彼らはまだワークショップの段階ですが、例えばハリケーン後の救援物資の配布を自動化しようとする前に、こうしたことについて深く考えることが重要です。
最後に、ディズニー・リサーチによる興味深い研究があります。これは、拡散画像生成モデルの出力を多様化する方法を探るものでした。このモデルは、特定のプロンプトに対して何度も同じような結果を生成することがあります。彼らの解決策は?「私たちのサンプリング戦略は、推論中に調整ベクトルにスケジュールされた単調減少ガウスノイズを追加することで、調整信号を焼きなまし、多様性と条件の整合のバランスをとることです。」私自身、これ以上うまく表現することができませんでした。

その結果、アングル、設定、そして画像出力の全体的な見た目において、より多様な選択肢が生まれます。これは必要な時もあれば、そうでない時もありますが、選択肢があるのは嬉しいものです。
カイル・ウィガーズは2025年6月までTechCrunchのAIエディターを務めていました。VentureBeatやDigital Trendsに加え、Android Police、Android Authority、Droid-Life、XDA-Developersといった様々なガジェットブログにも記事を寄稿しています。音楽療法士のパートナーとマンハッタンに在住。
バイオを見る
デヴィン・コールドウェイはシアトルを拠点とする作家兼写真家です。
彼の個人ウェブサイトは coldewey.cc です。
バイオを見る