機械学習とAIは、今やほぼあらゆる業界や企業にとって重要な技術となっていますが、その研究は膨大で、全てを読むのは容易ではありません。このコラムでは、特に人工知能(AIに限らず)分野において、近年の最も関連性の高い発見や論文をいくつか取り上げ、それらがなぜ重要なのかを説明します。
今週、大量のデータを整理したり、限られた証拠に基づいて賢明な予測を立てたりする能力により、AI アプリケーションがいくつかの予想外の分野で発見されました。
バイオテクノロジーや金融の分野では、機械学習モデルが大規模データセットを扱う事例が数多く見られてきましたが、ETHチューリッヒとLMUミュンヘンの研究者たちは、災害救援や住宅供給といった国際開発援助プロジェクトから生成されるデータに同様の手法を適用しています。研究チームは、過去20年間の数百万件のプロジェクト(総額2.8兆ドル)を対象にモデルを学習させました。これは、手作業で詳細に分析するには複雑すぎる膨大なデータセットです。
「このプロセスは、図書館全体を読み込み、類似の本をトピック別の棚に分類する試みと考えることができます。私たちのアルゴリズムは、320万件のプロジェクトが互いにどれほど類似しているかを判断するために、200もの異なる側面を考慮します。これは人間には不可能な作業量です」と、研究著者のマルテ・トエツケ氏は述べています。
非常に上位レベルの傾向を見ると、インクルージョンとダイバーシティへの支出が増加している一方で、気候変動対策への支出はここ数年で意外にも減少していることが示唆されています。彼らが分析したデータセットと傾向については、こちらをご覧ください。
あまり意識されていないもう一つの分野は、様々な産業で膨大な量の機械部品やコンポーネントが生産されていることです。再利用できるものもあれば、リサイクルできるものもあり、責任ある廃棄が必要なものもありますが、人間の専門家が判断するには数が多すぎます。ドイツの研究開発機関であるフラウンホーファーは、部品を識別し、スクラップ置き場行きではなく再利用できるようにする機械学習モデルを開発しました。

このシステムは、通常のカメラ画像以上の情報を活用しています。部品は見た目は似ているものの、大きく異なる場合や、機械的には同一でも錆や摩耗により外観が異なる場合があるためです。そのため、各部品は3Dカメラで重量測定とスキャンが行われ、原産地などのメタデータも取得されます。その後、モデルが部品の推定形状を提示するため、検査担当者はゼロから作業を始める必要がありません。このAI支援による識別方法を用いることで、数万点の部品が近い将来に保全され、数百万点の部品の処理が加速されることが期待されています。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
物理学者たちは、何世紀も前からある問題に機械学習の特性を応用する興味深い方法を発見しました。研究者たちは、流体力学を支配する方程式(オイラーの方程式のように18世紀にまで遡るものも含む)が不完全であること、つまり特定の極値で破綻することを示す方法を常に模索しています。従来の計算手法では、これは困難ですが、不可能ではありません。しかし、香港のCITと恒生大学の研究者たちは、流体力学の特異点の可能性の高い事例を分離するための新たなディープラーニング手法を提案しています。また、他の研究者たちは、この手法を他の方法で流体力学分野に応用しています。このQuantaの記事は、この興味深い進展を非常にわかりやすく説明しています。
MLレイヤーに搭載されるもう一つの何世紀も前からある概念は、切り紙です。これは、雪の結晶を作る際に多くの人が馴染みのある紙を切り抜く技術です。この技法は、特に日本と中国で何世紀も前から伝わっており、驚くほど複雑で柔軟な構造を作り出すことができます。アルゴンヌ国立研究所の研究者たちは、この概念に着想を得て、微視的スケールで電子情報を保持しつつ、容易に曲げられる2D材料の理論を構築しました。
研究チームは、1~6カットの実験を手作業で何万回も行い、そのデータを用いてモデルを学習させた。その後、エネルギー省のスーパーコンピューターを用いて分子レベルまでのシミュレーションを行った。すると、わずか数秒で、40%の伸縮性を持つ10カットのバリエーションが生成された。これは、研究チームの予想をはるかに超え、自らの実験さえも超えるものだった。

「ロボットは、私たちが決して教えなかったことを理解しました。人間と同じように何かを学び、その知識を使って何か違うことをしたのです」と、プロジェクトリーダーのパンカジ・ラジャク氏は述べた。この成功は、シミュレーションの複雑さと範囲をさらに拡大する原動力となった。
特別に訓練されたAIによるもう一つの興味深い外挿法は、赤外線入力から色データを再構築するコンピュータービジョンモデルです。通常、赤外線を捉えるカメラは、可視スペクトルにおける物体の色について何も知りません。しかし、この実験では、特定の赤外線帯域と可視帯域の間に相関関係が見つかり、赤外線で撮影された人間の顔画像を可視スペクトルに近い画像に変換するモデルが作成されました。
まだ概念実証の段階だが、このようなスペクトルの柔軟性は科学や写真撮影の分野で役立つツールとなる可能性がある。
—
一方、Google AIの責任者であるジェフ・ディーン氏が共同執筆した新たな研究は、AIは高い計算能力を必要とするため、環境負荷の高い取り組みであるという考えに反論しています。OpenAIのGPT-3のような大規模モデルの学習では、小規模な地域と同等の二酸化炭素排出量が発生する可能性があるという研究結果もありますが、Google関連のこの研究では、「ベストプラクティスに従う」ことで機械学習による二酸化炭素排出量を最大1000分の1に削減できると主張しています。
問題となるプラクティスは、使用されるモデルの種類、モデルのトレーニングに使用するマシン、「機械化」(例:クラウドコンピューティングとローカルコンピュータのどちらを使用するか)、そして「マップ」(最もクリーンなエネルギーを供給するデータセンターの立地選定)に関するものです。共著者によると、「効率的な」モデルを選択するだけで計算量を5分の1から10分の1に削減できる一方、GPUなど機械学習トレーニングに最適化されたプロセッサを使用することで、ワットあたりの性能比を2分の1から5分の1に向上させることができます。
AIの環境負荷を軽減できる可能性を示唆する研究は、確かに喜ばしいことです。しかし、Googleが中立的な立場を取っていないことは指摘しておかなければなりません。GoogleマップからGoogle検索に至るまで、同社の多くの製品は、開発と運用に多大なエネルギーを必要とするモデルに依存しています。
オープンリサーチグループ「ナイフとペイントブラシ」のメンバーであるマイク・クック氏は、たとえこの研究の推定値が正確だとしても、企業が利益を得られるのであれば、エネルギー効率の悪い方法で事業を拡大しない正当な理由はないと指摘する。学術団体は炭素排出量への影響といった指標に注目するかもしれないが、企業には少なくとも現時点では、同様のインセンティブが与えられていない。
「そもそも私たちがこの議論をしている理由は、GoogleやOpenAIのような企業が事実上無限の資金を持っており、GPT-3やBERTのようなモデルの構築にどんな犠牲を払ってでも資金を活用することを選んだからです。それが彼らに有利に働くことを知っていたからです」とクック氏はTechCrunchへのメールで述べた。「全体として、この論文は良いことを言っており、効率性を考えるなら素晴らしいと思います。しかし、私の意見では、これは技術的な問題ではありません。これらの企業は必要な時に大規模に行動し、自制心を持たないことは事実です。ですから、これが永久に解決されたと言うのは、ただの空論にしか感じません。」
今週の最後のトピックは、厳密には機械学習についてではなく、より直接的な方法で脳をシミュレーションするための今後の方向性についてです。EPFLのバイオインフォマティクス研究者たちは、最終的に神経解剖学のデジタルツインの構築に使用できる、独自性がありながらも正確なシミュレーションニューロンを大量に作成するための数学モデルを作成しました。
「この研究結果により、ブルー・ブレインは、神経形態の解剖学的特性を再現し、部位別の解剖学を含むシミュレーションのために脳領域を計算的に再構築することで、マウスの脳の生物学的に詳細な再構成とシミュレーションをすでに構築できるようになっている」と研究者のリダ・カナリ氏は述べた。
シミュレーション脳がより優れた AI を生み出すことを期待してはいけない (これは神経科学の進歩を追求するものにすぎない)。しかし、おそらくシミュレーションされたニューロン ネットワークから得られる洞察は、AI がデジタルで模倣しようとするプロセスの理解を根本的に向上させることにつながる可能性がある。