
ジェネレーティブAIとアクセラレーテッドコンピューティングは世界を変えているとCEOは語った。
NVIDIAの共同創業者兼CEOであるジェンスン・フアン氏は、本日台北で開催されたCOMPUTEXで、生成型AIをあらゆるデータセンターに導入したいと述べた。フアン氏にとって約4年ぶりの公の場でのスピーチの中で、同氏はチップのリリース日、DGX GH200スーパーコンピューター、大手企業との提携など、数々の発表を行ったという。2時間にわたる基調講演で明らかになったニュースを以下にまとめる。
- Nvidia のゲーマー向け GeForce RTX 4060 Ti GPU は現在フル生産状態にあり、台湾のパートナーと共同で「大量」生産されています。
- フアン氏は、ゲーム開発者向けに事前学習済みモデルを備えたカスタマイズ可能なAIモデルファウンドリーサービスであるNVIDIA Avatar Cloud Engine (ACE) for Gamesを発表しました。このサービスにより、AIを活用した言語インタラクションを通じて、NPCに個性的なキャラクターが加わります。
- NVIDIAのCUDAコンピューティングモデルは現在、400万人の開発者と3,000以上のアプリケーションに利用されています。CUDAのダウンロード数は4,000万回に達し、そのうち昨年だけで2,500万回に達しました。
- 黄氏は、GPUサーバーHGX H100のフル量産が開始され、「台湾全土の企業」で製造されていると述べた。同氏は、HGX H100はトランスフォーマーエンジンを搭載した世界初のコンピューターだと付け加えた。
- 黄氏は、エヌビディアが2019年にスーパーコンピューター用チップメーカーのメラノックスを69億ドルで買収したことを「同社がこれまでに行った最も偉大な戦略的決定の一つ」と呼んだ。
- 次世代の Hopper GPU の生産は、第 1 世代の製造開始からちょうど 2 年後の 2024 年 8 月に開始されます。
- NvidiaのGH200 Grace Hopperは現在、フル生産中です。このスーパーチップは、4ペタフロップスのTE(Telemetry Processor)、チップ間リンクで接続された72個のArm CPU、96GBのHBM3、そして576個のGPUメモリを搭載しています。Huang氏は、このプロセッサを世界初の大容量メモリを搭載したアクセラレーテッドコンピューティングプロセッサと表現し、「これはチップではなく、コンピュータです」と述べています。このプロセッサは、高耐障害性データセンターアプリケーション向けに設計されています。
- Grace Hopperのメモリが不足している場合、Nvidiaは解決策としてDGX GH200を用意しています。これは、まず8つのGrace Hopperを3つのNVLINKスイッチで接続し、次に各ポッドを900GBで接続することで実現されます。そして最終的に、さらに32個のポッドを別のスイッチ層で接続し、合計256個のGrace Hopperチップを接続します。こうして得られるエクサフロップスのTransformer Engineは、144TBのGPUメモリを搭載し、巨大なGPUとして機能します。Huang氏によると、Grace Hopperは非常に高速で、5Gスタックをソフトウェアで実行できるとのことです。Google Cloud、Meta、Microsoftは、DGX GH200に最初にアクセスし、その機能について研究を行う予定です。
- NVIDIAとソフトバンクは、ソフトバンクの日本国内の新分散型データセンターにGrace Hopperスーパーチップを導入するための提携契約を締結しました。これにより、マルチテナント型の共通サーバープラットフォームで生成型AIやワイヤレスアプリケーションをホストできるようになり、コストと消費電力を削減できます。
- ソフトバンクとNVIDIAの提携は、現在台湾の企業との提携で活用されているNVIDIA MGXリファレンスアーキテクチャを基盤としています。MGXは、システムメーカーにモジュール式のリファレンスアーキテクチャを提供し、AI、アクセラレーテッドコンピューティング、オムニバース用途向けの100種類以上のサーバー構築を支援します。提携企業には、ASRock Rack、ASUS、Gigabyte、Pegatron、QCT、Supermicroなどが名を連ねています。
- Huang氏は、イーサネットベースのクラウドの速度を向上させる高速ネットワークプラットフォーム「Spectrum-X」を発表しました。このプラットフォームには、400GB/秒、51.2T/秒のスループットを実現する128ポートを備えたSpectrum 4スイッチが含まれています。Huang氏によると、このスイッチは新しいタイプのイーサネットを実現するように設計されており、エンドツーエンドでアダプティブルーティング、パフォーマンス分離、ファブリック内コンピューティングを実現するように設計されています。また、Spectrum 4スイッチに接続して輻輳制御を行うBluefield 3 Smart Nicも含まれています。
- 世界最大の広告代理店WPPは、NVIDIAと提携し、NVIDIA Omniverseをベースとしたコンテンツエンジンを開発しました。このエンジンは、広告に使用される写真や動画コンテンツを制作できるようになります。
- ロボットプラットフォームNvidia Isaac AMRは、ロボットを開発したいすべての人に提供可能になりました。チップからセンサーまで、フルスタックです。Isaac AMRはNova Orinと呼ばれるチップから始まり、ロボット工学における初のフルリファレンススタックであるとHuang氏は述べています。
AIコンピューティングにおける同社の重要性のおかげで、Nvidiaの株価は過去1年間で急騰し、現在では時価総額が約9,600億ドルに達し、世界で最も価値のある企業の1つとなっている(同社より上位にランクされているのは、Apple、Microsoft、Saudi Aramco、Alphabet、Amazonのみ)。
宙ぶらりんの中国ビジネス
中国のAI企業は、NVIDIAが投入する最先端のシリコンを間違いなく注視している。同時に、米国による半導体禁止措置が再び導入され、前世代のAIよりもはるかに多くの計算能力とデータを必要とする生成型AIの進歩が阻害されることを懸念しているのだろう。
米国政府は昨年、NVIDIA社に対し、A100およびH100グラフィックプロセッサの中国への販売を禁止しました。両チップは、OpenAIのGPT-4のような大規模言語モデルの学習に使用されています。NVIDIA Hopper GPUコンピューティングアーキテクチャをベースにTransformer Engineを内蔵した最新世代チップであるH100は、特に需要が好調です。A100と比較して、H100はAI学習速度が9倍、LLMにおけるAI推論速度が最大30倍高速です。
中国は明らかに見逃せない巨大市場です。チップ輸出禁止措置により、NVIDIAは昨年第3四半期だけで推定4億ドルの潜在的売上高を失うと見込まれています。そのため、NVIDIAは米国輸出管理規則を満たす低速チップを中国に販売せざるを得ませんでした。しかし、長期的には中国はより強力な代替手段を模索するでしょう。今回の輸出禁止措置は、中国にとって主要なテクノロジー分野における自立を達成しなければならないという痛切な警告となるでしょう。
黄氏は最近、フィナンシャル・タイムズ紙のインタビューでこう述べた。「もし中国が米国から購入できなければ、自国で製造するだろう。だから米国は慎重にならなければならない。中国はテクノロジー業界にとって非常に重要な市場だ。」
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
トピック
アクセラレーテッドコンピューティング、 AI 、 AI 、アジア、コンピューテックス、ジェネレーティブAI 、 GPU 、ハードウェア、ハードウェア、 NVIDIA 、プロセッサ、ロボティクス、半導体、スーパーチップ
キャサリン・シューは、TechCrunchでアジアのスタートアップ企業や最新ニュースを取材してきました。ニューヨーク・タイムズ、台北タイムズ、バロンズ、ウォール・ストリート・ジャーナル、ヴィレッジ・ヴォイスにも記事を掲載しています。サラ・ローレンス大学とコロンビア大学ジャーナリズム大学院で学びました。
開示事項: なし
バイオを見る
リタはTechCrunchでアジア地域を担当し、特にグローバル展開する中国企業と、実社会で活用されるWeb3プロジェクトに関心を持っています。Tech in AsiaとTechNodeで執筆活動を行う以前は、SOSVのアジアにおけるアクセラレーターの広報を担当していました。また、ニューイングランドのドキュメンタリー制作会社とマインドフルネス・リトリートセンターで勤務した経験もあります。ボウディン大学で政治学と視覚芸術を学びました。連絡先:[email protected]
バイオを見る