
先週、ProMatでCovariantの共同創業者兼CEOのピーター・チェン氏とじっくり話をしました。タイミングは完璧だったか最悪だったかは人それぞれですが、そのタイミングは人それぞれです。1週間後に新たな資金調達ラウンドを機に私が続報を書こうとしていることを、スタートアップの広報担当者はきっと喜んでいるでしょう。
いずれにせよ、7,500万ドルという数字は無視できない。特にシリーズCの増資により、このAI企業の調達総額は2億2,200万ドルに達するからだ。既存投資家のRadical VenturesとIndex Venturesが今回のラウンドを主導し、カナダ年金制度投資委員会(CPIPB)とAmplify Partnersといったリピーターに加え、ゲイツ・フロンティア・ホールディングス、AIX Ventures、Northgate Capitalといった新規投資家も参加している。今回のラウンドは、2021年7月に発表されたシリーズCの8,000万ドルに続くものとなる。
「今回の投資により、Covariant Brainをより高性能な基盤モデルとしてさらに開発し、幅広い分野のより多くのユースケースに適用することが可能になります」とチェン氏はTechCrunchに語った。「eコマースの需要が拡大し続け、サプライチェーンのレジリエンス(回復力)がますます重要になる中、私たちは世界中の小売業者や物流業者と大きな進歩を遂げてきました。これらのパートナーシップに関する詳細を近日中に発表できることを楽しみにしています。」
先月の展示会では、Covariant社の技術デモも拝見しました。ピッキングと配置の仕組みを裏で理解すると、実に感銘を受けます。この物流システムの中核を成すのはCovariant Brainで、現実世界のピッキングに基づいて、荷物のサイズ、形状、材質に関する膨大なデータベースを構築しています。
会話の中で、チェン氏は生成AI/ChatGPTを例えに挙げました。しかし、これは単に最近のハイプサイクルとの微妙なつながりというだけではありません。チームの共同創設者4人のうち3人はOpenAIと直接的なつながりを持っているのです。
チェン氏は言う。
最近のChatGPTが登場する以前は、自然言語処理AIが数多く存在していました。検索、翻訳、感情検出、スパム検出など、膨大な数の自然言語AIが存在していました。GPT以前のアプローチは、ユースケースごとに、より小さなデータのサブセットを用いて、特定のAIをそのユースケース向けにトレーニングするというものでした。現在の結果を見てみると、GPTは基本的に翻訳という分野を廃止し、翻訳向けにトレーニングすらしていません。基盤モデルアプローチは、基本的に、ある状況に特化した少量のデータを用いたり、ある状況に特化したモデルをトレーニングしたりするのではなく、より多くのデータを用いて大規模な基盤汎用化モデルをトレーニングすることで、AIをより汎用化するというものです。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
この資金は、小売業者や物流会社への Covariant のシステムの導入を促進するために使用されます。
ロボットの学習を支援するAIの構築について語るCovariantのCEO
トピック
ブライアン・ヒーターは、2025年初頭までTechCrunchのハードウェア編集者を務めていました。Engadget、PCMag、Laptop、そして編集長を務めたTech Timesなど、数々の大手テクノロジー系メディアで活躍してきました。Spin、Wired、Playboy、Entertainment Weekly、The Onion、Boing Boing、Publishers Weekly、The Daily Beastなど、様々なメディアに寄稿しています。Boing Boingのインタビューポッドキャスト「RiYL」のホストを務め、NPRのレギュラーコメンテーターとしても活躍しています。クイーンズのアパートでは、ジュニパーという名のウサギと暮らしています。
バイオを見る