皆さん、こんにちは。TechCrunch初のAIニュースレターへようこそ。この言葉を入力するのは本当にワクワクします。このニュースレターは長い間準備してきたものですが、ついに皆さんにお届けできることを大変嬉しく思っています。
TCのAIニュースレターの立ち上げに伴い、以前は「パーセプトロン」という名称で不定期連載していた「This Week in AI」は終了となります。「This Week in AI」に掲載していた分析記事に加え、注目すべき新しいAIモデルへのスポットライトなど、その他の記事も引き続きご覧いただけます。
今週の AI では、OpenAI に再び問題が起こりつつあります。
OpenAIの元従業員グループが、ニューヨーク・タイムズのケビン・ルース記者に対し、組織内の重大な安全対策の欠陥について語った。彼らは、ここ数ヶ月でOpenAIを去った他の従業員と同様に、同社がAIシステムの潜在的な危険性を防ぐための対策を十分に講じていないと主張し、従業員が警鐘を鳴らすのを阻止するために強硬な姿勢を取っていると非難している。
同団体は火曜日に公開書簡を発表し、OpenAIを含む大手AI企業に対し、透明性の向上と内部告発者保護の強化を求めた。「これらの企業に対する政府の効果的な監督がない限り、現従業員と元従業員は、公衆に対して企業に責任を負わせることができる数少ない人物である」と書簡には記されている。
悲観的だと言われるかもしれないが、元社員たちの訴えは無視されるだろうと予想している。AI企業が、下記署名者が推奨するように「オープンな批判の文化を支持する」ことに同意するだけでなく、非中傷条項を適用せず、声を上げた現社員に報復措置を取らないというシナリオは想像しにくい。
OpenAIは、安全対策への初期の批判を受けて最近安全委員会を設立しましたが、そのメンバーはCEOのサム・アルトマン氏を含め、社内の人間ばかりです。また、かつてはOpenAIの制限的な非中傷契約について何も知らないと主張していたアルトマン氏ですが、その契約を定める設立文書には自ら 署名しています。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
もちろん、OpenAIの状況が明日好転する可能性はあるが、私は期待していない。仮に好転したとしても、信頼するのは難しいだろう。
ニュース
AIの終末: OpenAIのAI搭載チャットボットプラットフォームChatGPTは、AnthropicのClaude、GoogleのGemini、Perplexityとともに、今朝ほぼ同時にダウンしました。その後、すべてのサービスは復旧しましたが、ダウンの原因は依然として不明です。
OpenAI、核融合の可能性を探る:ウォール・ストリート・ジャーナルによると、OpenAIは核融合スタートアップ企業のHelion Energyと、データセンターの電力供給のため、同社から大量の電力を購入する契約について協議中だという。アルトマン氏はHelionの株式3億7500万ドルを保有し、同社の取締役も務めているが、この契約交渉からは身を引いたと報じられている。
トレーニング データのコスト: TechCrunch は、AI 業界で一般的になりつつある高額なデータ ライセンス契約について検証します。この契約により、小規模な組織や学術機関では AI 研究が維持できなくなる恐れがあります。
憎悪的な音楽ジェネレーター:悪意のある人物が AI 搭載の音楽ジェネレーターを悪用して同性愛嫌悪、人種差別、プロパガンダ的な曲を作成し、他の人にもその作り方を教えるガイドを公開しています。
Cohereへの資金調達:ロイター通信によると、エンタープライズ向け生成AIスタートアップであるCohereは、NVIDIA、Salesforce Ventures、Ciscoなどから新たな資金調達を行い、企業価値は50億ドルと評価された。関係筋によると、TechCrunchは、リピーターであるOracleとThomvest Venturesもこのラウンドに参加し、出資はオープンのままとなっていると報じている。
今週の研究論文
OpenAIが最近公式ブログで紹介した2023年の研究論文「Let's Verify Step by Step(段階的に検証しよう)」の中で、OpenAIの科学者たちは、同社の汎用生成AIモデルGPT-4を微調整し、数学問題の解法において予想以上の性能を達成したと主張している。論文の共著者らは、このアプローチにより生成モデルの軌道外れリスクが低減する可能性があると述べているが、いくつかの注意点も指摘している。
論文の中で、共著者らは、幻覚、つまりGPT-4が事実や数学の問題の答えを間違えた事例を検出するために報酬モデルをどのように訓練したかを詳しく説明しています。(報酬モデルとは、AIモデルの出力、この場合はGPT-4からの数学関連の出力を評価するための特殊なモデルです。)報酬モデルは、GPT-4が数学の問題のステップを正解するたびに「報酬」を与えました。研究者たちはこのアプローチを「プロセス監督」と呼んでいます。
研究者らは、プロセス監督によってGPT-4の数学問題の精度が、少なくともベンチマークテストにおいては、従来の「報酬型」モデルと比較して向上したと述べています。しかし、彼らはそれが完璧ではないことを認めており、GPT-4は依然として問題のステップを間違えています。また、研究者らが検討したプロセス監督の形態が、数学の領域を超えてどのように一般化できるかは不明です。
今週のモデル
天気予報は科学のようには感じられないかもしれません(少なくとも、私が今まさに経験したように雨に降られた時は)。しかし、それはすべて確率に基づくものであり、確実性に基づくものではないからです。そして、確率モデル以上に確率を計算する優れた方法があるでしょうか? AIは既に数時間から数世紀にわたる時間スケールでの天気予報に活用されていますが、今、マイクロソフトもこの分野に参入しようとしています。同社の新しいAuroraモデルは、急速に進化するAIの世界において、地球規模の約0.1°の解像度(約10km四方)で予報を提供することで、この分野を前進させています。

100万時間を超える気象・気候シミュレーション(実際の気象ではない?うーん…)で学習し、数々の望ましいタスクに微調整されたAuroraは、従来の数値予測システムを数桁も上回る性能を発揮します。さらに驚くべきことに、Google DeepMindのGraphCast(ただし、この分野はMicrosoftが担当)を凌駕し、1日から5日先までの気象状況をより正確に予測します。
もちろん、GoogleやMicrosoftといった企業もこの競争に参戦しており、両社とも、最もパーソナライズされたウェブ体験と検索体験を提供することで、ユーザーのオンライン上での関心を惹きつけようと競い合っています。正確で効率的なファーストパーティの天気予報は、少なくとも私たちが外出しなくなるまでは、その重要な部分を担っていくでしょう。
グラブバッグ
AIスタートアップ企業Anthropicのチーフ・オブ・スタッフであるアヴィタル・バルウィット氏は、先月Palladiumに掲載された考察記事の中で、生成型AIの急速な進歩により、今後3年間は彼女自身を含む多くの知識労働者にとって最後の労働期間になるかもしれないと主張しています。バルウィット氏は、これは恐れる理由ではなく、むしろ慰めとなるべきだと述べています。なぜなら、この世界は「人々の物質的なニーズが満たされる一方で、働く必要がない世界につながる可能性がある」からです。
「ある著名なAI研究者がかつて私にこう言った。彼は、柔術やサーフィンなど、自分が特に得意ではない活動に挑戦し、たとえそれが得意でなくても、その活動そのものを味わうことで、この転換点に向けて練習しているのだ」とバルウィット氏は記している。「こうすることで、私たちは必要ではなく喜びから物事を行なわなければならない未来、もはや何事にも一番になれるわけではないが、それでも日々をどのように過ごすかを選択しなければならない未来に備えることができるのだ。」
確かにそれは楽観的な見方だが、私もそう思うとは言えない。
仮に3年以内に生成型AIが知識労働者の大半を置き換えるとしたら(AIには未解決の技術的問題が数多くあることを考えると、非現実的に思えますが)、経済崩壊は避けられないでしょう。知識労働者は労働力の大部分を占め、高収入である傾向があり、したがって支出も膨大です。彼らは資本主義の車輪を前進させる原動力なのです。
バルウィット氏は、ユニバーサル・ベーシック・インカム(UBI)をはじめとする大規模な社会保障制度に言及している。しかし、連邦レベルのAI関連法整備さえままならない米国のような国が、近い将来にUBI制度を導入するとは到底思えない。
運が良ければ、私は間違っているでしょう。