AIのように急速に変化する業界に追いつくのは至難の業です。AIがあなたの代わりにそれをこなしてくれるようになるまで、機械学習の世界における最近の話題や、私たちが単独では取り上げなかった注目すべき研究や実験をまとめてご紹介します。
今週、Googleは新たな主力マルチモーダルAIモデル「Gemini」に関する発表を各チャンネルで大量に行いました。しかし、当初Googleが謳っていたほど印象的な製品ではありませんでした。というか、今週Googleがリリースした「ライト」版(Gemini Pro)はそれほど魅力的ではありませんでした。(Googleが製品デモを偽装していたことも事態を悪化させています。)Gemini Ultra(フルバージョン)については、来年初めにGoogleの様々なアプリやサービスに搭載されるまで、評価を保留することにします。
チャットボットの話はこれくらいにして、もっと大きな出来事は、平日の業務時間中にギリギリ間に合う資金調達ラウンドだと私は考えています。Mistral AIが20億ドルの評価額で4億5000万ユーロ(約4億8400万ドル)を調達したのです。
ミストラルについては以前にも取り上げました。Google DeepMindとMetaの元社員が共同設立した同社は、9月に最初のモデルであるミストラル7Bをリリースしました。当時、同社は同規模の他社製品よりも優れた性能を発揮すると主張していました。ミストラルは金曜日の資金調達に先立ち、ヨーロッパ最大級のシードラウンドの一つを調達しましたが、まだ製品リリースにも至っていません。
さて、同僚のドミニクは、パリに拠点を置くミストラル社の業績が、インクルーシビティを懸念する多くの人々にとって危険信号であると正しく指摘しました。このスタートアップの共同創業者は全員白人男性で、学歴的には、ニューヨーク・タイムズ紙が厳しく批判したAI変革者リストに名を連ねる多くの人々に見られる均質で恵まれた経歴に当てはまります。
同時に、投資家たちは、ミストラルと、そのかつてのライバルであるドイツのアレフ・アルファを、ヨーロッパが(現時点では)非常に肥沃な生成型 AI の分野に旗を立てるチャンスと見ているようだ。
これまでのところ、最も知名度が高く、最も資金力のある生成AIベンチャーは米国にあります。OpenAI、Anthropic、Inflection AI、Cohereなど、枚挙にいとまがありません。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
ミストラルの幸運は、多くの点でAI主権をめぐる戦いの縮図と言えるでしょう。欧州連合(EU)は、新たな技術革新に取り残されることを避けたいと願う一方で、技術開発を導くための規制も導入しています。ドイツの副首相兼経済大臣であるロバート・ハーベック氏は最近、「AI分野においてEU独自の主権を持つという考えは極めて重要です。しかし、欧州が最良の規制を有していても、欧州企業が参入していなければ、我々が勝ち得たものはほとんどありません」と述べました。
今週、EU議員がAIシステムのリスクを制限する政策について合意形成を試みる中で、起業と規制の溝が鮮明になった。(追記:議員らは金曜日の夜遅く、AIを規制するためのリスクベースの枠組みについて合意に達した。)ミストラル氏率いるロビイストらは、ここ数ヶ月、生成AIモデルに対する規制の全面的な例外措置を求めてきた。しかし、EU議員らは今のところ、そのような例外措置に抵抗している。
とはいえ、ミストラルとその欧州の競合企業には多くのことがかかっています。EUの政策立案者がAIに新たな規制を課した場合、業界関係者、そして米国の立法者は、投資への影響を注視するでしょう。規制が施行された今、ミストラルはOpenAIに対抗できるほど成長できるでしょうか?それとも、規制は萎縮効果をもたらすのでしょうか?まだ断言するには時期尚早ですが、私たちもその姿を早く見たいと思っています。
ここ数日間で注目されたその他の AI 関連ニュースは次のとおりです。
- 新たなAIアライアンス:オープン ソースに 注力するMetaは、 AIのシェア獲得をめぐる争いにおいて、その影響力を拡大しようとしています。このソーシャルネットワークは、IBMと提携し、AIにおける「オープンイノベーション」と「オープンサイエンス」を支援する業界団体「AIアライアンス」を設立すると発表したが、そこには隠された意図が隠されている。
- OpenAIがインドに進出: Ivan氏とJagmeet氏の報告によると、OpenAIはTwitterの元インド代表であるRishi Jaitly氏をシニアアドバイザーとして迎え、政府とのAI政策に関する協議を促進しています。OpenAIはまた、インドに現地チームを設立することも検討しており、Jaitly氏はこのAIスタートアップがインドの政策と規制環境に対応できるよう支援する予定です。
- GoogleがAI支援メモアプリをリリース:今年初めに発表されたGoogleのAIメモアプリ「NotebookLM」が、18歳以上の米国ユーザー向けに提供開始されました。リリースを記念して、この実験的アプリはGoogleの新しい大規模言語モデル「Gemini Pro」と統合されました。Googleによると、このモデルは「文書の理解と推論を支援する」とのことです。
- OpenAI、規制当局の監視下へ: OpenAIと主要な支援者でありパートナーでもあるMicrosoftの親密な関係が、英国の競争・市場庁(FTC)が開始した新たな調査の焦点となっている。最近の騒動を受けて、両社が事実上「合併にふさわしい状況」にあるかどうかが調査対象となっている。FTCは、MicrosoftによるOpenAIへの投資についても、協調的な取り組みと見られる調査を行っていると報じられている。
- AIに優しくお願いする:トレーニングデータに含まれるバイアスによってAIモデルにバイアスが埋め込まれてしまった場合、どうすればそのバイアスを軽減できるでしょうか?Anthropicは、AIに「お願いだから差別しないで。さもないと訴えられるよ」と優しくお願いすることを提案しています。本当にそうなんです。Devinが詳しく解説します。
- MetaがAI機能をリリース:今週のAI関連アップデートに加え、Metaの生成AIエクスペリエンスであるMeta AIに、プロンプトに応じて画像を作成する機能やInstagram Reelsのサポートなどの新機能が追加されました。「reimagine」と呼ばれる前者の機能は、グループチャットのユーザーがプロンプトに応じてAI画像を再作成できる機能で、後者は必要に応じてReelsをリソースとして利用できます。
- Respeecher が資金を獲得:ウクライナの合成音声スタートアップ Respeecher は、アニメシリーズ「スターウォーズ」でジェームズ・アール・ジョーンズとその象徴的なダース・ベイダーの声を再現するために選ばれ、その後「マンダロリアン」で若き日のルーク・スカイウォーカーの声を再現するために選ばれたことでおそらく最もよく知られているが、街に爆弾が降り注ぐだけでなく、時には物議を醸す競合を生み出す誇大宣伝の波にも関わらず成功を収めているとデビン氏は書いている。
- Liquid Neural Nets:ロボット工学の第一人者ダニエラ・ラス氏が共同設立したMIT発のスピンオフ企業は、「Liquid Neural Nets」と呼ばれる比較的新しいタイプのAIモデルを搭載した汎用AIシステムの構築を目指しています。Liquid AIと呼ばれる同社は、今週、WordPressの親会社Automatticを含む出資者からシードラウンドで3,750万ドルを調達しました。
さらなる機械学習

軌道画像は機械学習モデルにとって絶好の遊び場です。昨今の衛星は、専門家が処理しきれないほどの膨大なデータを生み出しているからです。EPFLの研究者たちは、海洋プラスチックの識別精度向上に取り組んでいます。これは大きな問題であると同時に、体系的に追跡するのが非常に難しい課題です。彼らのアプローチは、ラベル付けされた軌道画像でモデルを学習させるという、それほど驚くべきものではありません。しかし、彼らはこの技術を改良し、雲に覆われている場合でもシステムの精度を大幅に向上させました。
もちろん、それを見つけることは課題の一部にすぎず、それを除去することは別の課題ですが、人々や組織が実際の作業を実行するときに優れた情報を持っているほど、作業の効率が上がります。
しかし、すべての分野にこれほど豊富な画像があるわけではありません。特に生物学者は、十分な記録がない動物の研究において課題に直面しています。例えば、ある希少な昆虫の動きを追跡したいと思っても、その昆虫の画像が不足しているため、プロセスの自動化は困難です。インペリアル・カレッジ・ロンドンのグループは、ゲーム開発プラットフォームUnrealと共同で、機械学習を用いてこの問題に取り組んでいます。

Unrealでフォトリアリスティックなシーンを作成し、そこにアリ、ナナフシ、あるいはもっと大きな生き物の3Dモデルを配置することで、機械学習モデル用の任意の量のトレーニングデータを作成できます。コンピュータービジョンシステムは合成データでトレーニングされますが、動画で示されているように、現実世界の映像でも非常に効果的に機能します。
彼らの論文はNature Communicationsで読むことができます。
しかし、ワシントン大学の研究者たちが発見したように、生成された画像すべてが信頼できるわけではない。彼らはオープンソースの画像生成ツール「Stable Diffusion 2.1」に、様々な制約や場所を設定した「人物」の画像を体系的に生成させた。その結果、「人物」という用語が、肌の色が薄い西洋人男性と不釣り合いに関連付けられていることが示された。
それだけでなく、特定の地域や国籍では、ラテンアメリカ諸国の女性の性的イメージや「ノンバイナリーや先住民のアイデンティティのほぼ完全な消去」といった、不安を掻き立てるパターンが見られました。例えば、「オセアニア出身者」の写真を求めると、白人男性は表示されますが、先住民は表示されません。この地域には先住民が多数存在し(白人以外の男性は言うまでもありません)、それでもです。これはまだ発展途上の問題であり、データに内在するバイアスを認識することが重要です。
バイアスがかかり、有用性が疑わしいモデルをどう扱うかを学ぶことは、多くの学者、そして学生たちの頭を悩ませています。イェール大学の英語学教授ベン・グレイザー氏との興味深い対談は、ChatGPTのようなツールを建設的に活用する方法について、爽快なほど楽観的な見解を示しています。
チャットボットと話すと、文化についての曖昧で奇妙なイメージが返ってきます。自分の考えに対する反論が返ってくることもありますが、それらの反論や自分の考えを裏付ける証拠が本当に良いものかどうかを評価する必要があります。そして、そうした出力を読み取るには、ある種のリテラシーが必要です。このクラスの生徒たちは、そうしたリテラシーの一部を身につけつつあります。
すべてを引用し、入念なやり取りやこれらのツールを含むプログラミング作業を通じて創造的な作品を開発する場合、それは単にワイルドで興味深いことをしているだけです。
例えば病院では、AIをいつ信頼すべきなのでしょうか?放射線科では、人体スキャンにおける問題の迅速な特定にAIが頻繁に活用されていますが、AIは絶対確実とは程遠いものです。では、医師はモデルをいつ信頼すべきで、いつ信頼すべきでないかをどのように判断すべきでしょうか?MITはこの部分も自動化できると考えているようですが、ご安心ください。これは別のAIではありません。特定の医師やタスクにおいてAIツールが役立つ場合と、そうでない場合を判断するのに役立つ、標準的な自動オンボーディングプロセスです。
AIモデルは、テキストや画像以外のものを生成することがますます求められています。材料科学は、特に大きな進歩が見られる分野の一つです。モデルは、より優れた触媒やポリマー鎖などの候補を導き出すことに非常に優れています。スタートアップ企業も参入していますが、マイクロソフトも「新しく安定した材料を生成するために特別に設計された」MatterGenというモデルをリリースしました。

上の画像でわかるように、磁性、反応性、サイズなど、様々な特性をターゲットにすることができます。フラバーのような事故や何千回もの実験は必要ありません。このモデルを使えば、実験や製品に適した材料を、数ヶ月ではなく数時間で見つけることができるでしょう。
Google DeepMindとバークレー研究所もこの種の研究に取り組んでおり、材料業界では急速に標準的な手法になりつつあります。