AIのように急速に変化する業界に追いつくのは至難の業です。AIがあなたの代わりにそれをこなしてくれるようになるまで、機械学習の世界における最近の話題や、私たちが単独では取り上げなかった注目すべき研究や実験をまとめてご紹介します。
今週のAI特集では、ラベリングとアノテーションを手がけるスタートアップ企業、Scale AIにスポットライトを当てたいと思います。Scale AIは、130億ドルの評価額で新たな資金調達を協議中と報じられています。ラベリングとアノテーションのプラットフォームは、OpenAIのSoraのような派手な新しい生成AIモデルほど注目を集めることはないかもしれません。しかし、これらは不可欠な存在です。これらがなければ、現代のAIモデルは存在しなかったと言えるでしょう。
多くのモデルが学習に用いるデータにはラベルを付ける必要がある。なぜか?ラベル、つまりタグは、学習プロセス中にモデルがデータを理解・解釈するのに役立ちます。例えば、画像認識モデルを学習させるラベルは、物体の周囲に付けるマーク、「バウンディングボックス」、あるいは画像に描かれた人物、場所、物体それぞれを示すキャプションといった形を取る場合がある。
ラベルの精度と品質は、学習済みモデルのパフォーマンス、そして信頼性に大きく影響します。また、アノテーション作業は膨大な作業であり、より大規模で高度なデータセットを使用する場合、数千から数百万ものラベルが必要になります。
データアノテーターは、モデルを構築するエンジニアと同等の待遇を受け、生活賃金を支払われ、福利厚生も充実しているはずだと考えるでしょう。しかし、多くの場合、その逆です。これは、多くのアノテーションおよびラベリングのスタートアップ企業が生み出す過酷な労働環境の産物です。
OpenAIのように数十億ドルもの資金を持つ企業は、時給わずか数ドルの第三世界のアノテーターに頼ってきました。こうしたアノテーターの中には、生々しい画像など、非常に不快なコンテンツにさらされているにもかかわらず、(通常は契約社員であるため)休暇を与えられず、メンタルヘルス関連のリソースにもアクセスできない人もいます。
ChatGPTの危険性を軽減した労働者は、大手テック企業による搾取を阻止するよう議員に要請している。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
NY Magに掲載された素晴らしい記事は、ナイロビやケニアといった遠く離れた国でアノテーターを募集しているScale AIの実態を詳しく報じています。Scale AIが求める作業の中には、ラベラーが8時間労働を複数回(休憩なし)続け、報酬はわずか10ドルというものもあります。そして、これらの労働者はプラットフォームの気まぐれに左右されます。アノテーターは長期間仕事を受けられない場合もあれば、タイ、ベトナム、ポーランド、パキスタンの契約社員が最近経験したように、Scale AIからあっさりと追い出されることもあります。
一部のアノテーションおよびラベリングプラットフォームは、「フェアトレード」な作業を提供していると主張しており、実際、それを自社のブランディングの中核に据えています。しかし、MIT Tech Reviewのケイト・ケイ氏が指摘するように、倫理的なラベリング作業とは何かという点については、規制はなく、業界標準は弱いだけで、企業独自の定義も大きく異なっています。
では、どうすればいいのでしょうか? 画期的な技術革新がない限り、AIの学習用データにアノテーションとラベルを付与する必要性は消えることはありません。プラットフォームが自主規制してくれることを期待することもできますが、より現実的な解決策は政策立案にあるように思われます。それ自体は難しい課題ですが、状況をより良い方向に変えるための、あるいは少なくともその一歩を踏み出すための、私たちが取り組める最善の策だと私は考えています。
ここ数日間で注目されたその他の AI 関連ニュースは次のとおりです。
- OpenAIが音声クローンツールを開発: OpenAIは、AIを活用した新しいツール「Voice Engine」をプレビュー公開した。このツールを使うと、15秒間の録音から音声をクローン化できる。しかし、同社は誤用や乱用のリスクを理由に、このツールを(今のところ)広く公開しないことを決定した。
- Amazon が Anthropic への投資を強化: Amazon は成長中の AI スタートアップ企業 Anthropic に 27 億 5,000 万ドルを追加投資し、昨年 9 月に残していた選択肢を実行に移した。
- Google.org がアクセラレーターを立ち上げ: Google の慈善部門である Google.org は、生成 AI を活用した技術を開発する非営利団体に資金を提供するため、6 か月間で 2,000 万ドルの新しいプログラムを立ち上げます。
- 新しいモデル アーキテクチャ: AI スタートアップ企業の AI21 Labs は、効率性を向上させるために新しいモデル アーキテクチャ (状態空間モデル、SSM) を採用した生成 AI モデル Jamba をリリースしました。
- DatabricksがDBRXをリリース: その他のモデル関連ニュースとして、Databricksは今週、OpenAIのGPTシリーズやGoogleのGeminiに類似した生成AIモデルであるDBRXをリリースしました。同社は、このモデルが推論能力測定を含む、多くの一般的なAIベンチマークで最先端の結果を達成したと主張しています。
- Uber Eats と英国の AI 規制: Natasha は、Uber Eats の配達員が AI 偏見と闘った経験から、英国の AI 規制のもとで正義が勝ち取られるのは容易ではないことが分かる、と書いています。
- EUの選挙セキュリティガイダンス:欧州連合は火曜日、デジタルサービス法で規制されている 約24のプラットフォームを対象とした選挙セキュリティガイドラインの草案を公表した。これには、コンテンツ推奨アルゴリズムによる生成AIベースの偽情報(いわゆる政治的ディープフェイク)の拡散を防ぐことに関するガイドラインも含まれている。
- Grok がアップグレード: X の Grok チャットボットは、まもなく基盤モデル Grok-1.5 にアップグレードされます。同時に、X のすべてのプレミアム サブスクライバーが Grok にアクセスできるようになります。(Grok はこれまで X Premium+ のお客様限定でした。)
- AdobeがFireflyを拡張:今週、Adobeは20以上の新しいジェネレーティブ・クリエイティブAPI、ツール、サービスからなるFirefly Servicesを発表しました。また、Adobeの新しいGenStudioスイートの一部であるカスタムモデルもリリースしました。これにより、企業は自社のアセットに基づいてFireflyモデルを微調整できます。
さらなる機械学習
天気はどうですか? AIはますます天気予報を教えてくれるようになってきています。数ヶ月前に、時間単位、週単位、そして世紀単位の予報に関するいくつかの取り組みを目にしましたが、AIのあらゆる分野と同様に、この分野も急速に進化しています。MetNet-3とGraphCastのチームは、SEEDS(Scalable Ensemble Envelope Diffusion Sampler)と呼ばれる新しいシステムに関する論文を発表しました。

SEEDSは拡散法を用いて、入力(レーダー観測値や軌道画像など)に基づいて、ある地域における起こりうる気象結果の「アンサンブル」を物理ベースのモデルよりもはるかに高速に生成します。アンサンブルの数を増やすことで、より多くのエッジケース(100通りのシナリオのうち1つしか発生しない事象など)をカバーでき、より起こりやすい状況についてより確信を持って予測できるようになります。
富士通はまた、水中自律航行機(UAV)が収集した水中画像やライダーデータにAI画像処理技術を適用することで、自然界への理解を深めたいと考えています。画像品質の向上により、3D変換など、比較的高度な処理を必要としない処理でも、対象データへの適用が容易になります。

新たな発展のシミュレーションと予測に役立つ、水域の「デジタルツイン」を構築するという構想です。実現にはまだ遠いですが、どこかで始めなければなりません。
大規模言語モデル(LLM)において、研究者たちは、それらが予想以上に単純な方法、つまり線形関数によって知能を模倣していることを発見しました。正直なところ、その数学的な知識は私には理解できません(多次元のベクトル処理)。しかし、MITのこの論文を読むと、これらのモデルの想起メカニズムがかなり…基本的なものであることがよく分かります。
これらのモデルは、膨大なデータで訓練された非常に複雑な非線形関数であり、理解するのは非常に困難ですが、内部では非常に単純なメカニズムが働いている場合もあります。「これはその一例です」と、共同筆頭著者のエヴァン・ヘルナンデス氏は述べています。より技術的な知識をお持ちの方は、こちらの研究者の論文をご覧ください。
これらのモデルが失敗する原因の一つは、文脈やフィードバックを理解できないことです。非常に優秀な法学修士(LLM)であっても、名前の発音を特定の方法で伝えても「理解」できない可能性があります。なぜなら、彼らは実際には何も知らないし、理解もしていないからです。人間とロボットのインタラクションのように、文脈やフィードバックが重要な場面では、ロボットがそのような行動をとると、人々は不快感を覚えてしまうかもしれません。
ディズニー・リサーチは長年にわたり、キャラクター間の自動インタラクションの研究を続けており、名前の発音と再利用に関する論文が少し前に発表されました。当たり前のことのように思えますが、自己紹介の際に名前だけでなく音素も抽出してエンコードするのは、賢いアプローチです。

最後に、AIと検索の重複がますます進むにつれ、これらのツールがどのように利用されているか、そしてこの不吉な組み合わせによって新たなリスクが生じていないかを再評価する価値があります。サフィヤ・ウモジャ・ノーブル氏は長年にわたりAIと検索倫理の分野で重要な発言者であり、彼女の意見は常に啓発的です。彼女はUCLAのニュースチームとの素晴らしいインタビューで、自身の研究がどのように進化してきたか、そして検索における偏見や悪習慣に対して冷静な姿勢を保つ必要がある理由について語ってくれました。
AIをレビューするのはなぜ不可能なのか、そしてTechCrunchがなぜそれを行っているのか
カイル・ウィガーズは2025年6月までTechCrunchのAIエディターを務めていました。VentureBeatやDigital Trendsに加え、Android Police、Android Authority、Droid-Life、XDA-Developersといった様々なガジェットブログにも記事を寄稿しています。音楽療法士のパートナーとマンハッタンに在住。
バイオを見る
デヴィン・コールドウェイはシアトルを拠点とする作家兼写真家です。
彼の個人ウェブサイトは coldewey.cc です。
バイオを見る