スタートアップ企業は、自動運転車の認識にLIDARの先を見据えている

スタートアップ企業は、自動運転車の認識にLIDARの先を見据えている

前回のCESは、ライダー企業にとって試練の時でした。多くの企業は、(まだ)存在しない自動運転車業界からの需要不足により、業績が急落しました。成功を収めた少数の企業は、特化することで成功を収めました。そして今年は、このトレンドがライダーの枠を超え、新たなセンシング技術やイメージング技術がレーザーベースの技術と競合しつつも、それを補完しようとしています。

LiDARは従来のカメラではできないことができるため、従来のカメラより先に進んできた。そして今、いくつかの企業が、それほど珍しくない技術で同じことを実現しようとしている。

自律性が停滞する中、ライダー企業は適応を学んでいる

問題や認識を異なる方法で解決する好例として、Eye Netの車両間追跡プラットフォームが挙げられます。これは5G(確かにまだやや異例ではありますが)の文脈で話題になっている技術の一つであり、多くの誇大宣伝にもかかわらず、実際には短距離・低遅延のアプリケーションを可能にし、人命を救う可能性を秘めています。

Eye Netは、カメラやその他のセンサー技術の有無に関わらず、同社の技術を搭載した車両同士の衝突を警告します。例えば、駐車場を走行中の車が、前方に非常に危険な電動スクーターに乗った人が直角に動き、進路に飛び出そうとしているものの、駐車車両に完全に隠れていることに気づいていない場合などです。Eye Netのセンサーは、両方の車両に搭載されたデバイスの位置を検知し、どちらか一方、あるいは両方がブレーキをかけるタイミングに合わせて警告を発します。

自転車と自動車が衝突の危険にさらされている様子を描いたCGイラスト。
画像クレジット: Eye Net

このようなことを試みているのは彼らだけではありませんが、彼らは、ホワイトラベルソリューションのようなものを提供することで、最初は何も装備されておらず、その後すべて VW に装備され、その後にいくつかの Ford といくつかの e-bike などといった状態になるのではなく、比較的簡単に適切な規模のネットワークを構築できることを期待しています。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

しかし、視覚は依然として車両のナビゲーションにおいて重要な部分であり、複数の分野で進歩が遂げられています。

例えば、Brightway Visionは、一般的なRGBカメラでは多くの実環境下での視認性が限られるという問題を、マルチスペクトルカメラの採用によって解決しています。同社のカメラは、通常の可視光画像に加えて、近赤外線ビーム装置と連動しており、設定された距離間隔で1秒間に何度も前方の道路をスキャンします。

夜間に赤外線を使ってさらに先を見るカメラのCGイラスト。
画像クレジット: Brightway Vision

メインカメラが霧で100フィート先まで見えなくても、NIR画像が通常のスキャンでその「スライス」をスキャンすることで、障害物や道路の特徴を捉えることができるというアイデアです。従来のカメラと赤外線カメラの利点を組み合わせながら、両方の欠点をうまく回避しています。このカメラを使えば、通常のカメラを使う必要がなくなり、同じ機能をより良くこなせるだけでなく、場合によってはセンサーをもう1つ省くことも可能になる、というのがこの製品の売りです。

Foresight Automotive 社も自社のカメラでマルチスペクトル画像を使用しており (数年後にはほとんどの車載カメラが可視スペクトルに限定される可能性は低いでしょう)、FLIR 社との提携により熱画像も取り入れていますが、同社が本当に販売しているのは別のものです。

360度(または近距離)をカバーするには、通常複数のカメラが必要です。しかし、コンパクトセダンとSUV、ましてや自動運転貨物車では、カメラの設置場所が異なります。これらのカメラは連携して動作する必要があるため、完璧に調整され、互いの正確な位置を把握している必要があります。そうすることで、例えば、2台のカメラが同じ木や自転車を捉えているのではなく、同じものを2台捉えていることを認識できるのです。

Foresight カメラが磁石で車のボディに取り付けられている様子を示す画像。
画像クレジット: Foresight Automotive

Foresightの進歩は、キャリブレーション段階の簡素化です。これにより、メーカー、設計者、あるいはテストプラットフォームは、カメラを片方向に半インチ動かすたびに、面倒な再テストと認証を行う必要がなくなります。Foresightのデモでは、運転する数秒前にカメラを車のルーフに取り付ける様子が見られます。

これは、同じく立体カメラを活用しているNodarという別のスタートアップ企業と類似点があるものの、異なるアプローチを採用している。同社が指摘するように、両眼の三角測量から奥行きを推定する技術は数十年前、あるいは同様の仕組みで動作する人間の視覚システムを含めれば数百万年前から存在している。このアプローチの実現を阻んできた制約は、光学カメラが自律走行車に必要な奥行き情報を根本的に提供できないということではなく、カメラのキャリブレーションが維持されないという点にある。

Nodarは、2台のステレオカメラを車体本体に取り付ける必要がないことを実証しています。これにより、カメラ間の画像間のブレやわずかな不一致が低減されます。バックミラーに取り付けられた「ハンマーヘッド」カメラは、サメのように幅広のスタンスを持ち、カメラ間の視差が大きいため、精度が向上します。距離は2枚の画像の差によって決定されるため、単一カメラソリューションのように「これは形状で、おそらく車、おそらくこれくらいの大きさ、つまりこれくらいの距離にある」と判断するための物体認識や複雑な機械学習は必要ありません。

画像クレジット: Nodar

カメラアレイは人間の目と同様に、厳しい気象条件でも優れた性能を発揮することを業界では既に実証しています」と、NodarのCOO兼共同創業者であるブラッド・ローゼン氏は述べています。「例えば、ダイムラーのエンジニアたちは、悪天候下でも、現在の立体視によるアプローチは単眼方式やライダー補完よりも大幅に安定した深度推定を提供するという結果を発表しました。私たちのアプローチの優れた点は、使用するハードウェアが現在入手可能で、自動車グレードであり、メーカーや販売業者にとって多くの選択肢があることです。」

実際、ライダーにとって大きな痛手となっているのは、そのコストだ。「安価な」ものでさえ、通常のカメラよりも桁違いに高価になる傾向があり、その額はあっという間に膨らんでしまう。しかし、ライダーチームも進歩を止めてはいない。

Sense Photonics は、両方の世界のベストを組み合わせたような新しいアプローチで登場しました。比較的安価でシンプルなフラッシュ LIDAR (複雑さが増しがちな回転式やスキャン式ではなく) を従来のカメラと組み合わせることで、2 つで同じ画像のバージョンを確認し、連携して物体を識別し、距離を測定できるようにします。

センスフォトニクスが新たなアプローチと2600万ドルでライダー市場に参入

Senseは2019年のデビュー以来、生産段階からそれ以降も技術を改良し続けてきました。最新の進歩は、カスタムハードウェアによって200メートル先まで物体を撮影できるようになったことです。これは、LIDARと従来のカメラの両方にとって、一般的には遠距離とみなされる距離です。

「これまで、当社のレーザー光源(Sense Illuminator)と組み合わせる市販の検出器を調達してきました。しかし、2年間にわたる社内での検出器開発が完了し、大きな成功を収めたことにより、短距離および長距離の車載製品を開発することが可能になりました」と、CEOのShauna McIntyreは述べています。

「Senseは、カメラのようなライダー設計のための『ビルディングブロック』を開発しました。これは、様々な光学系と組み合わせることで、異なる視野角(FOV)、距離、解像度などを実現できます」と彼女は続けた。「しかも、非常にシンプルな設計で、実際に大量生産が可能です。私たちのアーキテクチャは、ベースカメラにマクロレンズ、ズームレンズ、魚眼レンズなどを組み合わせることで、さまざまな機能を実現できるデジタル一眼レフカメラのようなものだと考えてください。」

各社が一致していた点は、単一のセンシング手法が業界全体を独占することはないだろうという点です。完全自動運転車(レベル4~5)のニーズは運転支援システムのニーズとは大きく異なるものの、この分野は急速に進化しており、単一のアプローチが長くトップの座を維持することは不可能でしょう。

「AV企業は、そのプラットフォームが安全であり、異なる波長で動作する冗長センサーモダリティによってのみ安全マージンが拡大すると一般大衆が確信しない限り、成功することはできません」とマッキンタイア氏は述べた。

それが可視光、近赤外線、熱画像、レーダー、ライダー、あるいはここで見てきたようにこれらのうち 2 つまたは 3 つの組み合わせを意味するかどうかに関わらず、市場が引き続き差別化を優先することは明らかです。ただし、数年前にライダー業界で見られた好況と不況のサイクルと同様に、これは統合が間近に迫っているという警告でもあります。