Intel、Google、Microsoft、Metaなどの大手IT企業は、データセンター内のAIアクセラレータチップを相互にリンクするコンポーネントの開発を指導するために、新しい業界団体「Ultra Accelerator Link (UALink) Promoter Group」を設立しています。
木曜日に発表されたUALinkプロモーターグループ(AMD(Armはまだ参加していない)、Hewlett Packard Enterprise、Broadcom、Ciscoもメンバー)は、増加の一途をたどるサーバーに搭載されているAIアクセラレータチップを接続するための新たな業界標準を提案しています。広義のAIアクセラレータとは、GPUからカスタム設計ソリューションまで、AIモデルのトレーニング、微調整、実行を高速化するチップを指します。
「業界は、複数の企業がエコシステム全体に付加価値を付加できるオープンなフォーマットで、非常に迅速に前進できるオープンスタンダードを必要としています」と、AMDのデータセンターソリューション担当ゼネラルマネージャー、フォレスト・ノロッド氏は水曜日の記者会見で述べた。「業界は、単一の企業に束縛されることなく、イノベーションを急速に推進できる標準を必要としています。」
提案された標準のバージョン1であるUALink 1.0は、単一のコンピューティング「ポッド」を介して最大1,024個のAIアクセラレータ(GPUのみ)を接続します。(このグループはポッドをサーバー内の1つまたは複数のラックと定義しています。)UALinkプロモーターグループによると、AMDのInfinity Fabricなどの「オープンスタンダード」に基づくUALink 1.0は、AIアクセラレータに接続されたメモリ間で直接ロードとストアを可能にし、既存の相互接続仕様と比較してデータ転送レイテンシを短縮しながら速度を全体的に向上させます。

同団体は、今後のUALink仕様の開発を監督するため、第3四半期にコンソーシアム「UALinkコンソーシアム」を設立すると発表しました。UALink 1.0は、コンソーシアムに参加する企業にほぼ同時期に提供され、より高帯域幅の最新仕様であるUALink 1.1は2024年第4四半期にリリースされる予定です。
最初のUALink製品は「今後数年以内に」発売される予定だとノロッド氏は語った。
このグループのメンバーリストには、AIアクセラレーターの市場シェアが推定80%から95%と圧倒的なシェアを誇るNVIDIAが明らかに含まれていない。NVIDIAはこの件についてコメントを控えた。しかし、このチップメーカーがUALinkに熱心に力を入れない理由は容易に理解できる。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
例えば、NVIDIAはデータセンターサーバー内のGPUを接続するための独自の相互接続技術を提供しています。同社はおそらく、競合技術に基づく仕様をサポートすることにあまり熱心ではないでしょう。
さらに、Nvidia は極めて強力で影響力のある立場から事業を展開しているという事実もあります。
エヌビディアの直近の会計四半期(2025年第1四半期)では、AIチップの売上を含む同社のデータセンター売上高が前年同期比で400%以上増加しました。エヌビディアが現在の勢いを維持すれば、今年中にアップルを抜いて世界第2位の企業価値を持つ企業となる見込みです。
つまり、簡単に言えば、Nvidia は、望まなければ協力する必要はないのです。
UALinkに貢献していない唯一のパブリッククラウド大手、Amazon Web Services(AWS)は、自社製の様々なアクセラレータハードウェア開発を段階的に進めていく中で、「様子見」モードに入っているのかもしれない。あるいは、クラウドサービス市場を独占しているAWSは、顧客に提供するGPUの多くをNVIDIAに供給しているNVIDIAに対抗することに戦略的な意味を見出せないのかもしれない。
AWSはTechCrunchのコメント要請に応じなかった。
実際、AMDとIntel以外では、UALinkの最大の受益者はMicrosoft、Meta、Googleのようだ。これらの企業は、クラウドの基盤構築と成長を続けるAIモデルのトレーニングのために、NVIDIAのGPUに総額数十億ドルを費やしてきた。これらの企業は、AIハードウェアエコシステムにおいて懸念されるほど支配的になっているベンダーからの離脱を模索している。
ガートナーは最近のレポートで、サーバーで使用されるAIアクセラレーターの価値は今年210億ドルに達し、2028年までに330億ドルに増加すると予測している。一方、ガートナーは、AIチップの収益は2025年までに334億ドルに達すると予測している。
GoogleはAIモデルの学習と実行のためのカスタムチップ、TPU、そしてAxionを保有しています。Amazonは複数のAIチップファミリーを保有しています。Microsoftは昨年、MaiaとCobaltでこの分野に参入しました。そしてMetaは独自のアクセラレータラインナップを改良中です。
一方、マイクロソフトとその緊密な協力関係にあるOpenAIは、将来バージョンのCobaltチップとMaiaチップを搭載したAIモデルの訓練用スーパーコンピュータに少なくとも1000億ドルを投じる計画だと報じられている。これらのチップを相互にリンクさせる何かが必要で、おそらくUALinkになるだろう。
カイル・ウィガーズは2025年6月までTechCrunchのAIエディターを務めていました。VentureBeatやDigital Trendsに加え、Android Police、Android Authority、Droid-Life、XDA-Developersといった様々なガジェットブログにも記事を寄稿しています。音楽療法士のパートナーとマンハッタンに在住。
バイオを見る