研究論文はあまりにも頻繁に発表されるため、全てを読むのは容易ではありません。特に機械学習の分野では顕著で、現在ではほぼあらゆる業界や企業に影響を与え、論文も発表されています。このコラムでは、特に人工知能(AI)分野に限らず、近年の最も関連性の高い発見や論文をいくつか取り上げ、それらがなぜ重要なのかを説明します。
自らの過ちを認めるには、感情的に成熟したAIが必要です。そして、ミュンヘン工科大学のこのプロジェクトが目指すのはまさにそれです。感情そのものというわけではないかもしれませんが、特に自動運転車において、過ちを認識し、そこから学ぶことです。研究者たちは、過去に人間ドライバーに制御を委ねなければならなかったすべての事例を車が振り返り、自らの限界を学習するシステムを提案しています。彼らはこれを「内省的故障予測」と呼んでいます。
例えば、前方に多数の車が走行している場合、自動運転車の頭脳はセンサーとロジックを用いて、接近が有効か、あるいはどの接近方法も有効でないか、即座に判断を下すことができます。しかし、TUMチームによると、新たな状況を過去の状況と比較するだけで、車両を離脱させる必要があるかどうかをより迅速に判断できるとのことです。ここで6~7秒を節約できれば、安全な車線変更に大きな違いが生じる可能性があります。
あらゆる種類のロボットや自律走行車にとって、特に戦闘では決断力と簡潔さが求められるため、司令部に連絡することなく意思決定を行えることが重要です。陸軍研究所は、地上車両と航空機が自律的に相互作用する方法を研究しており、例えば、ドローンが調整や許可の取得、正確なGPS信号への依存なしに着陸できる移動式着陸パッドなどを実現します。
彼らの解決策は、少なくともテスト目的においては、実はかなりローテクだ。地上車両の上部には巨大なQRコードが描かれた着陸エリアがあり、ドローンはかなり遠くからでもそれを視認できる。ドローンは完全に独立して、着陸パッドの正確な位置を追跡できる。将来的にはQRコードが廃止され、ドローンは代わりに車両の形状を識別できるようになるかもしれない。おそらく何らかの推測ロジックを用いて、それが目的の車両かどうかを判断できるようになるだろう。

医療の世界では、AIはそれほど難しくはないものの、人間にとってはむしろ面倒な作業に活用されています。その好例が、顕微鏡画像における個々の細胞の活動の追跡です。ペトリ皿の複数の深さにわたる数百フレームを観察し、細胞の動きを追跡するのは超人的な作業ではありませんが、だからといって大学院生がそれを好んで行うわけではありません。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
名古屋市立大学の研究者によるこのソフトウェアは、画像解析と、個々のフレームだけでなく一定期間にわたって物体を認識する能力(近年大幅に向上)を用いて、これを自動的に実現します。論文はこちらでご覧いただけます。また、右側にあるこの技術を紹介する非常にキュートなイラストもご覧ください。もっと多くの研究機関がプロのアーティストを雇うべきです。
このプロセスは、悪性黒色腫のリスクがある人のほくろやその他の皮膚の特徴を追跡するプロセスに似ています。彼らは、特定の斑点が怪しいかどうかを確認するために年に1回程度皮膚科医の診察を受けるかもしれませんが、それ以外の時間は、他の方法で自分のほくろやそばかすを追跡しなければなりません。背中のような場所にある場合は、これは困難です。
MITの研究者たちは、潜在的に危険な皮膚の色素沈着を識別・分類し、最もリスクの高いものにフラグを付けて詳細な検査を行う機械学習モデルを開発しました。このモデルは133人の患者の2万枚以上の画像で学習され、実験室環境では非常に優れた性能を発揮し、専門家が特定した「疑わしい色素性病変」の90%を検出しました。

自分の背中をうまく撮影する方法はまだ明確ではありませんが、パートナーや三脚があれば役立つかもしれません。もちろん、皮膚科医を呼ぶ前に、クリニックで撮影することも可能です。この論文はScience Translational Medicineに掲載されています。
興味深いことに、研究者がコンピュータービジョンを使わなかった事例が一つあります。それは、宇宙から牛(とヘラジカ)を見つけ、その動きを追跡するというものです。10人の学部生が31,000頭の牛を手動でハイライトしました。一部の研究室が、代わりに牛(または海牛)を見つけるAIを訓練することを選択する理由が分かります。
写真家が嫌うのと同じような作業に、「ホットピクセル」の監視があります。これは、カメラのセンサーや画像処理パイプライン内の1つのピクセルが他のピクセルよりもはるかに明るく表示される現象です。もちろん、これは後処理で簡単に修正できますが、完全に排除できればさらに良いでしょう。サムスンはまさにそれを提案する論文を発表しましたが、その規模は写真家にとって最悪の悪夢と言えるでしょう。

これらのホットピクセルを見つけるのは、特に難しい作業ではありません。非常に特徴的なので。しかし、だからといって、このような機械学習プロセスを既存のパイプラインに組み込むのが簡単というわけではありません。しかし、アプローチの有効性が証明されれば、ハードウェアへの効率的な実装へと作業を進めることができます。Samsungが作成したモデルは、人工的なホットピクセルをわずか数パーセントしか見逃しませんでしたが、高コントラスト領域では誤検出率がかなり高かったため、まだ改善の余地があります。
すべてのパターンを事後的に検知できるわけではありません。例えば、地震活動は、地滑りや土石流につながる可能性について精査される可能性があります。後者は、ETHチューリッヒのこのシステムの根底にある考え方です。
スイスのある危険な土石流(塊状の、極めて危険な土砂崩れのような)が発生しやすい地域は、10年以上にわたって監視されてきましたが、研究者たちは警報の発令時間が短いことに不満を抱いていました。自然災害では一秒一秒が重要です。彼らは地震計を設置しましたが、土石流特有の振動と山岳地帯で発生する通常の地震動を区別できる機械学習モデルを構築する必要がありました。
このシステムは、過去の土石流のシグナルに基づいて訓練され、2020年夏に発生した13件の土石流をすべて検知し、下流域の住民への警報精度を20分以上向上させました。現在、このモデルを他の高リスク地域でも土石流を検知できるように一般化できるかどうかを検討しています。論文はこちらでご覧いただけます。

災害発生後、通信ネットワークが頻繁にダウンしたり、利用量が急増したりするため、ほぼ確実に二次的な情報危機が発生します。特にソーシャルメディアは、「うわー、地震を感じた人はいますか?」から「うちのビルのすぐ外で電線が切れてる!」まで、メッセージやメディアで溢れかえっています。では、緊急対応者として、これらのメッセージのうちどれを知りたいでしょうか?
バージニア工科大学の研究者たちは、災害発生時におけるソーシャルメディアのコンテンツを迅速かつ正確に評価し、優先的に対応すべき人物や場所を特定する研究を行っています。彼らが開発した機械学習モデルは、人間が注釈を付けたツイートという特注データで学習され、コンピューターが注目すべき事項を予備的に評価できるようにしています。
東北大学では、洪水被害地域のニュース映像から画像を探し出し、映像やその他のデータからどの建物が深刻な被害を受けるかを推測するという興味深いアイデアを考案しています。そこからInstagramやTikTokで同様の動画がすぐに見つかりますが、プライバシーの問題も生じます。