AIを活用して新しいタスクを学習するロボットは、一般的に面倒で反復的なトレーニングプロセスを必要とします。カリフォルニア大学バークレー校の研究者たちは、ロボットがゼロから学習するのではなく、学習のギャップを埋めていく革新的な学習手法を用いて、このプロセスを簡素化・短縮しようと試みています。
同チームは、本日の TC Sessions: Robotics で披露するいくつかの研究成果を TechCrunch と共有しており、以下のビデオでは、まずカリフォルニア大学バークレー校の研究者 Stephen James 氏がその内容について語る。
「私たちが採用している技術は、対照学習の一種です。YouTube動画を取り込み、いくつかの領域をパッチ状に分割し、ロボットがその画像を再構成しようとするのです」とジェームズ氏は説明した。「ロボットは、そのパッチに何があるかを理解して、その背後に何があるのかを推測する必要があります。つまり、世界で何が起こっているかをしっかりと理解する必要があるのです。」
もちろん、YouTubeを見るだけで学習するわけではありません。人間の世界ではよくあることですが。操作者は、ロボット自身を物理的に、あるいはVRコントローラーを使って動かし、ロボットが何をしようとしているのかを大まかに理解させる必要があります。ロボットはこの情報と、動画から得た世界についてのより広範な理解を組み合わせ、最終的には他の多くの情報源も統合する可能性があります。
このアプローチはすでに成果を上げているとジェームズ氏は言う。「通常、新しいタスクを実行するには数百回のデモが必要になることもありますが、今では数回、おそらく10回のデモでタスクを実行できます。」

アレハンドロ・エスコントレラは、YouTube動画から動物、人間、他のロボットの動きなど、関連データを抽出するモデルの設計を専門としています。ロボットはこれらのモデルを用いて自身の行動を決定し、特定の動きが試してみる価値があるかどうかを判断します。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
最終的には、ビデオの動きを再現して、それを見ている別のモデルがボールを追っているのがロボットなのか本物のジャーマンシェパードなのかを判別できないようにすることを目指しています。
興味深いことに、このようなロボットの多くは、まずシミュレーション環境で学習し、基本的にVR内で動作をテストします。しかし、ダニヤール・ハフナー氏が説明するように、プロセスは十分に効率化されているため、そのテストを省略し、ロボットを現実世界で自由に動き回らせ、歩く、つまずく、そしてもちろん押されるといったインタラクションからリアルタイムで学習させることができます。この方法の利点は、新しい情報を統合するためにシミュレータに戻る必要がなく、作業をしながら学習できるため、タスクがさらに簡素化されることです。
「ロボット学習の究極の目標は、現実世界でできる限り多くのことを、できる限り速く学習することだと思います」とハフナー氏は述べた。彼らは確かにその目標に向かって進んでいるようだ。チームの研究成果を収めた動画の全編は、こちらでご覧いただけます。
デヴィン・コールドウェイはシアトルを拠点とする作家兼写真家です。
彼の個人ウェブサイトは coldewey.cc です。
バイオを見る