Googleはロボットに独自のコードを生成することを望んでいる

Googleはロボットに独自のコードを生成することを望んでいる
Automatic robot mechanical arm is working in the modern automobile parts factory.
画像クレジット:ティーラ・コナカン / ゲッティイメージズ

自動化の世界には解決すべき大きな課題が無数に残っており、ロボットの学習はその最重要課題の一つです。人間が特定のタスクのためのシステムをプログラミングすることにかなり長けているのは事実ですが、それでもなお大きな未解決の疑問が残ります。「そして、その先はどうなるのか?」

今朝ニューヨークで開催されたGoogleのAIイベントで発表された新たな研究は、ロボットシステムが事実上独自のコードを書けるようにするという概念を提唱しています。このコンセプトは、新たな情報が発生するたびに人間の開発者が再プログラミングを行う手間を省くことを目的としています。

画像クレジット: Google

同社は、既存の研究と学習済みモデルがこのコンセプトの実装に効果的であると指摘しています。これらの研究はすべて、現実世界で遭遇する物体やシナリオに基づいて独自のコードを継続的に生成できるシステムの開発において基礎となる可能性があります。本日展示される新しい研究は、「Code as Policies(CaP)」です。

画像クレジット: Google

Google ResearchのインターンのJacky Liang氏とロボット研究科学者のAndy Zeng氏はブログ記事で次のように述べています。

CaPでは、言語モデルを用いて、少量のプロンプトを通してロボットコードを直接記述することを提案しています。実験では、ロボットタスクを直接学習し、自然言語動作を出力する場合と比較して、コード出力によって汎化能力とタスクパフォ​​ーマンスが向上することが示されました。CaPにより、タスク固有の学習なしに、単一のシステムで複雑かつ多様なロボットタスクを実行できるようになります。

前述の通り、このシステムは特定のシナリオに最適なコードを生成するためにサードパーティ製のライブラリやAPIに依存しており、言語や(当然ですが)絵文字のサポートも利用しています。これらのAPIでアクセスできる情報は、現状の制約の一つです。研究者らは、「これらの制約は、視覚言語モデルを拡張して低レベルのロボット動作(例えば軌道)を記述したり、CaPと探索アルゴリズムを組み合わせて制御プリミティブのセットを自律的に追加したりといった、今後の研究の方向性を示しています」と述べています。

本日の発表の一環として、Googleはこれまで発表してきた研究成果を基に、GitHubサイトからアクセスできるコードのオープンソース版を公開します。つまり、初期段階の研究に関する注意事項はすべてここに記載されています。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

トピック

ブライアン・ヒーターは、2025年初頭までTechCrunchのハードウェア編集者を務めていました。Engadget、PCMag、Laptop、そして編集長を務めたTech Timesなど、数々の大手テクノロジー系メディアで活躍してきました。Spin、Wired、Playboy、Entertainment Weekly、The Onion、Boing Boing、Publishers Weekly、The Daily Beastなど、様々なメディアに寄稿しています。Boing Boingのインタビューポッドキャスト「RiYL」のホストを務め、NPRのレギュラー寄稿者でもあります。クイーンズのアパートでは、ジュニパーという名のウサギと暮らしています。

バイオを見る