皆さん、こんにちは。TechCrunchの定期AIニュースレターへようこそ。毎週水曜日に受信箱に配信をご希望の場合は、こちらからご登録ください。
OpenAIが最新の主力生成モデル「o1」を世界に公開してから、わずか数日が経ちました。「推論」モデルとして売り出されているo1は、本質的には質問に答える前に「考える」のに長い時間をかけ、問題を分解し、自らの答えを検証します。
o1がうまくできないことは非常に多く、OpenAI自身もそれを認めています。しかし、物理学や数学といった一部のタスクでは、o1はOpenAIのこれまでの最高性能モデルであるGPT-4oよりも必ずしも多くのパラメータを持っているわけではないにもかかわらず、優れた性能を発揮します。(AIや機械学習において、通常数十億単位の「パラメータ」は、モデルの問題解決能力とほぼ同等です。)
そして、これは AI 規制に影響を及ぼします。
例えば、カリフォルニア州が提案している法案SB 1047は、開発費が1億ドルを超える、または一定の閾値を超える計算能力を用いて学習されたAIモデルに安全要件を課しています。しかし、o1のようなモデルは、学習用計算能力のスケールアップだけがモデルのパフォーマンスを向上させる唯一の方法ではないことを示しています。
Xの投稿で、NVIDIAの研究マネージャーであるジム・ファン氏は、将来のAIシステムは、最近のトレンドであるトレーニング集約型のアーキテクチャ(MetaのLlama 405Bなど)ではなく、小型でトレーニングしやすい「推論コア」に依存する可能性があると主張しました。ファン氏によると、最近の学術研究では、o1のような小型モデルは、質問の分析に多くの時間を費やせば、大型モデルを大幅に上回る性能を発揮できることが示されているとのことです。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
では、政策立案者がAI規制措置をコンピューティングに結び付けたのは近視眼的だったのだろうか?AIスタートアップ企業Cohereの研究室長サラ・フッカー氏は、TechCrunchのインタビューで「はい」と述べている。
[o1]は、モデルサイズをリスクの代理変数として用いるというこの見方がいかに不完全であるかを指摘しています。推論やモデル実行で可能なすべてのことを考慮に入れていません。私にとってこれは、科学の欠陥と、現在世界で見られるリスクではなく将来のリスクに重点を置く政策の組み合わせです。
では、立法者はAI関連法案を根本から撤回して最初からやり直すべきだということになるのでしょうか?いいえ。多くの法案は、AIが制定後もずっと進化し続けるという前提の下、容易に修正できるよう作成されています。例えばカリフォルニア州の法案は、州の政府運営局に、法律の安全要件を発動させるコンピューティング能力の閾値を再定義する権限を与えるものです。
確かに難しいのは、訓練用コンピューティングよりもリスクのより適切な指標はどれかを見極めることだ。AI規制の他の多くの側面と同様に、米国、そして世界中で法案が成立に向けて進む中で、これは熟考すべき点だ。
ニュース

o1 への第一反応: Max は AI 研究者、スタートアップの創設者、VC から o1 に関する第一印象を得て、自らモデルをテストしました。
アルトマン氏が安全委員会を離脱: OpenAIのCEOサム・アルトマン氏は、o1などのモデルの安全性を審査する責任を持つスタートアップの委員会から辞任した。これは、同氏が公平に行動しないのではないかという懸念を受けたものとみられる。
Slack がエージェント ハブに:親会社 Salesforce の年次 Dreamforce カンファレンスで、Slack は AI 生成の会議概要や、画像生成および AI 駆動型 Web 検索ツールとの統合などの新機能を発表しました。
Google が AI 画像にフラグを付け始める: Google は、検索結果内のどの画像が AI によって生成されたものか、あるいは AI ツールによって編集されたものかをより明確にするため、Google 検索に変更を展開する予定であると述べています。
Mistral が無料プランを開始:フランスの AI スタートアップ企業 Mistral は、開発者が同社の AI モデルを使用してアプリを微調整し、テストできるように、新しい無料プランを開始しました。
Snap、動画生成ツールを発表: Snapchatは火曜日に開催された年次Snapパートナーサミットで、クリエイター向けの新しいAI動画生成ツールを導入すると発表しました。このツールにより、一部のクリエイターはテキストプロンプトから、そして近々画像プロンプトからもAI動画を生成できるようになります。
インテル、大型チップ契約を締結:インテルは、AWSと共同でインテルの18Aチップ製造プロセスを用いたAIチップを開発すると発表しました。両社はこの契約を「複数年にわたる数十億ドル規模の枠組み」と表現しており、追加のチップ設計も含まれる可能性があります。
オプラの AI 特集:オプラ・ウィンフリーが、OpenAI のサム・アルトマン、マイクロソフトのビル・ゲイツ、技術インフルエンサーのマルケス・ブラウンリー、現 FBI 長官のクリストファー・レイなどのゲストを迎えて AI に関する特別番組を放送しました。
今週の研究論文
AIが説得力を持つことは周知の事実ですが、陰謀論の迷宮に深く入り込んだ人を掘り出すことはできるのでしょうか?もちろん、AIだけで全てを解明できるわけではありません。しかし、MITとコーネル大学のコステロらが開発した新しいモデルは、少なくとも数ヶ月は持続する、真実ではない陰謀論に関する信念に変化をもたらす可能性があります。
実験では、陰謀論関連の発言(例えば「9/11は内部犯行だった」など)を信じている人々に、チャットボットと会話をしてもらいました。チャットボットは、彼らの主張に対する反証を優しく、辛抱強く、そして延々と提示しました。これらの会話の結果、少なくとも測定可能な範囲では、2ヶ月後には、参加した人々は関連する発言への信念が20%減少したと報告しました。以下は、進行中の会話の一例です。

レプティリアンやディープステートの陰謀論に深く関わっている人が、このようなAIに相談したり信じたりする可能性は低いでしょう。しかし、こうした理論に初めて触れるような重要な局面で活用すれば、このアプローチはより効果的になる可能性があります。例えば、10代の若者が「ジェット燃料は鋼材を溶かすことができるか?」と検索した場合、悲劇的な瞬間ではなく、学習の機会を経験することになるかもしれません。
今週のモデル
これはモデルではありませんが、モデルと関係があります。マイクロソフトの研究者は今週、Eureka と呼ばれる AI ベンチマークを公開しました。これは (彼らの言葉を借りれば)「[モデル] 評価をオープンかつ透明性のある方法で拡大すること」を目的としています。
AIベンチマークは数多く存在します。では、Eurekaは何が違うのでしょうか?研究者によると、Eureka(実際には既存のベンチマークの集合体)では、「最も有能なモデルでさえ」困難なタスクを選んだとのことです。具体的には、Eurekaは視覚空間ナビゲーション能力など、AIベンチマークでは見落とされがちな能力をテストします。
Eurekaがモデルにとってどれほど難しいかを示すため、研究者たちはAnthropicのClaude、OpenAIのGPT-4o、MetaのLlamaなどのシステムをベンチマークでテストしました。Eurekaのすべてのテストで高得点を獲得したモデルは1つもありませんでした。研究者たちは、これはモデルに対する「継続的なイノベーション」と「的を絞った改善」の重要性を強調していると述べています。
グラブバッグ
カリフォルニア州はプロの俳優の勝利として、AIデジタルレプリカの使用を制限するAB 2602とAB 1836という2つの法律を可決した。
この法案は、パフォーマー組合であるSAG-AFTRAの支持を受けており、パフォーマーのデジタルレプリカ(クローン音声やクローン画像など)を利用する企業に対し、レプリカの用途を「合理的に具体的に」説明し、パフォーマーの弁護士または労働組合と交渉することを義務付けています。また、エンターテインメント業界の雇用主は、亡くなったパフォーマーのデジタルレプリカを使用する前に、その遺産相続人の同意を得ることが義務付けられています。
ハリウッド・レポーター誌の記事で指摘されているように、これらの法案は、SAG-AFTRAが昨年、スタジオや主要ストリーミングプラットフォームとの118日間のストライキで主張してきた概念を成文化したものです。カリフォルニア州は、テネシー州に次いで、デジタル俳優の肖像の使用に制限を課した2番目の州です。SAG-AFTRAはテネシー州の取り組みも後援していました。