AIワークロードを駆動するネットワークハードウェアを構築するEnfabricaが1億2500万ドルを調達

AIワークロードを駆動するネットワークハードウェアを構築するEnfabricaが1億2500万ドルを調達

AIや機械学習のワークロードを処理するために設計されたネットワークチップを開発しているEnfabricaは本日、シリーズBの資金調達ラウンドで1億2500万ドルを調達したと発表した。共同創業者兼CEOのロチャン・サンカー氏によると、同社の評価額はシリーズAの資金調達後の評価額の「5倍」となる。

Atreides Managementが主導し、Sutter Hill Ventures、Nvidia、IAG Capital Partners、Liberty Global Ventures、Valor Equity Partners、Infinitum Partners、Alumni Venturesが参加する今回の新たな資金調達により、Enfabricaの調達総額は1億4,800万ドルに達した。サンカー氏によると、この調達資金はEnfabricaの研究開発と事業運営の支援に加え、エンジニアリング、営業、マーケティングチームの拡大に充てられるという。

「半導体スタートアップ、そしてベンチャーキャピタルのディープテック全般にとって、非常に厳しい資金調達環境の中で、Enfabricaがこれほどの規模の資金調達ラウンドを達成したことは注目に値します。そして、それによって業界の多くの半導体スタートアップとは一線を画しています」とサンカー氏は述べた。「生成AIと大規模言語モデルは、多くの業界においてクラウドコンピューティングのインフラ整備における最大の推進力であり続けています。Enfabricaのようなソリューションは、ネットワーク技術に対する非常に高い需要に応える可能性を秘めています。」

Enfabrica がステルス状態から姿を現したのは 2023 年だったが、その道のりは 2020 年に始まった。Broadcom で元エンジニアリング ディレクターを務めていた Sankar 氏は、Google でネットワーク プラットフォームとアーキテクチャを統括していた Shrijeet Mukherjee 氏とチームを組み、AI 業界における「並列、高速、異機種」インフラストラクチャ、つまり GPU への需要の高まりに対応するために、スタートアップ企業 Enfabrica を設立した。

「この種のコンピューティングインフラを大規模に実現するには、ネットワーキングシリコンとシステムも同様のパラダイムシフトを経る必要があると考えました」とサンカー氏は述べた。「現在のAI革命がもたらす最大の課題は、AIインフラのスケーリングです。コンピューティングコストとコンピューティングの持続可能性の両面においてです。」

サンカール氏がCEO、ムケルジー氏が最高開発責任者となり、シスコ、メタ、インテルなどの企業出身の数人の創設エンジニアとともに、エンファブリカはAIを含む並列ワークロードのI/Oと「メモリ移動」の要件を満たすことができるネットワークチップのアーキテクチャの開発を開始しました。

サンカー氏は、スイッチなどの従来のネットワークチップでは、現代のAIワークロードのデータ移動ニーズに対応しきれないと主張しています。MetaのLlama 2やGPT-4など、現在学習中のAIモデルの中には、学習プロセス中に膨大なデータセットを取り込むものがあり、ネットワークスイッチがボトルネックになる可能性があるとサンカー氏は指摘します。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

「AI業界におけるスケーリング問題とボトルネックの大部分は、GPUコンピューティングに付随するI/Oサブシステム、メモリ移動、そしてネットワークにあります」と彼は述べた。「増大するAIワークロードの需要と、それらが実行されるコンピューティングクラスターの全体的なコスト、効率性、持続可能性、そしてスケーリングの容易さを両立させる必要性が極めて高くなっています。」

優れたネットワーク ハードウェアの開発を目指して、Enfabrica は並列化に重点を置きました。

Enfabricaのハードウェア(同社ではAccelerated Compute Fabric Switch、略してACF-Sと呼んでいる)は、メモリやネットワークデバイスに加え、GPU、CPU、AIアクセラレータチップ間で最大「マルチテラビット/秒」のデータ転送を実現できる。「標準ベース」のインターフェースを採用することで、このハードウェアは数万ノードまで拡張可能で、Llama 2のような大規模言語モデルにおいて、同じパフォーマンスポイントでGPUコンピューティングを約50%削減できるとEnfabricaは主張している。

「EnfabricaのACF-Sデバイスは、データセンターのサーバーラック内に接続された効率的で高性能なネットワーク、I/O、メモリを提供することで、GPU、CPU、アクセラレータを補完します」とサンカー氏は説明した。「そのため、ACF-Sは、ラックレベルのネットワークスイッチ、サーバーネットワークインターフェースコントローラー、PCIeスイッチといった従来のサーバーI/Oおよびネットワークチップを個別に必要としない統合ソリューションです。」

エンファブリカACF-S
EnfabricaのACF-Sネットワークハードウェアのレンダリング。画像提供: Enfabrica

サンカー氏はまた、ACF-Sデバイスは推論(つまり訓練済みのAIモデルの実行)を扱う企業にとって、GPU、CPU、その他のAIアクセラレータの使用を最小限に抑えられるため、メリットがあると主張しました。サンカー氏によると、ACF-Sは膨大な量のデータを非常に高速に移動することで、既存のハードウェアをより効率的に活用できるためです。

「ACF-Sは、AI計算に使用されるAIプロセッサの種類やブランド、および導入される具体的なモデルに依存しないため、さまざまなユースケースにわたってAIインフラストラクチャを構築し、独自のベンダーロックインなしで複数のプロセッサベンダーをサポートできます」と彼は付け加えた。

Enfabricaは潤沢な資金を持っているかもしれない。しかし、AIのトレンドを追いかけるネットワークチップのスタートアップは同社だけではない。これは注目に値する。

シスコは今夏、AIネットワークワークロードをサポートするハードウェア製品群「Silicon One G200」と「G202」を発表しました。一方、エンタープライズネットワーク分野の既存企業であるBroadcomとMarvellは、最大51.2テラビット/秒の帯域幅を実現するスイッチを提供しています。Broadcomは最近、最大32,000基のGPUを接続できる高性能ファブリック「Jericho3-AI」を発表しました。

サンカー氏は、エンファブリカの顧客についてはまだ初期段階であるため、語ることは控えた。最新の資金調達の一部は、エンファブリカの製品開発と市場開拓を支援するためだとサンカー氏は述べた。それでもサンカー氏は、AIインフラへの注目と巨額の投資を考えると、エンファブリカは優位な立場にあると主張した。

Dell'Oro Groupによると、AIインフラへの投資により、データセンターの設備投資額は2027年までに5,000億ドルを超えると予想されています。一方、IDCによると、AIに特化したハードウェアへの投資は、今後5年間で年間20.5%の複合成長率が見込まれています。

「オンプレミスかクラウドかを問わず、AIコンピューティングの現在のコストと電力消費量は、AIサービスを導入するすべてのCIO、経営幹部、そしてIT組織にとって最優先事項です。あるいは、そうでなくても最優先事項であるべきです」と彼は述べた。「2022年後半以降、テクノロジー系スタートアップ業界は経済的な逆風に見舞われてきましたが、Enfabricaは、既存のネットワークおよびサーバーI/Oチップソリューションに革新的で破壊的な技術をもたらし、過去18ヶ月間に生成AIとアクセラレーテッドコンピューティングがもたらした市場機会と技術パラダイムシフトの規模の大きさによって、資金調達、製品の進歩、そして市場ポテンシャルを高めてきました。」

マウンテンビューに本拠を置くエンファブリカは、北米、ヨーロッパ、インドに100人強の従業員を抱えている。