エヌビディアのCEOは、同社のAIチップはムーアの法則よりも速く進化していると語る

エヌビディアのCEOは、同社のAIチップはムーアの法則よりも速く進化していると語る

エヌビディアのジェンスン・フアンCEOは、同社のAIチップの性能は、数十年にわたってコンピューティングの進歩を牽引してきたムーアの法則が示したこれまでの速度よりも速いペースで進歩していると述べている。

「私たちのシステムはムーアの法則よりもはるかに速いペースで進歩しています」と、ラスベガスのCESで1万人の聴衆を前に基調講演を行った翌朝、フアン氏はテッククランチとのインタビューで語った。

1965年にインテルの共同創業者であるゴードン・ムーアによって提唱されたムーアの法則は、コンピュータチップ上のトランジスタ数が2年ごとにほぼ倍増し、チップの性能が実質的に倍増すると予測しました。この予測はほぼ的中し、数十年にわたって性能の急速な向上とコストの急落をもたらしました。

近年、ムーアの法則は減速傾向にあります。しかし、フアン氏は、NVIDIAのAIチップは独自の加速ペースで進化していると主張しています。同社によると、最新のデータセンター向けスーパーチップは、AI推論ワークロードの実行速度が前世代の30倍以上高速化しています。

「アーキテクチャ、チップ、システム、ライブラリ、そしてアルゴリズムをすべて同時に構築できます」とフアン氏は述べた。「そうすれば、スタック全体にわたってイノベーションを起こすことができるため、ムーアの法則よりも速く進むことができます。」

NVIDIA CEOによるこの大胆な主張は、AIの進歩が停滞しているのではないかと多くの人が疑問を抱いている時期になされた。Google、OpenAI、Anthropicといった主要なAIラボは、NVIDIAのAIチップを使用してAIモデルの学習と実行を行っており、これらのチップの進歩はAIモデルの能力のさらなる進歩につながる可能性が高い。

フアン氏がNVIDIAがムーアの法則を超えていると示唆したのは今回が初めてではない。11月のポッドキャストで、フアン氏はAIの世界が「ハイパームーアの法則」のペースで進んでいると示唆した。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

フアン氏は、AIの進歩が鈍化しているという考えを否定する。むしろ、AIのスケーリングには3つの有効な法則があると主張する。それは、AIモデルが大量のデータからパターンを学習する初期トレーニング段階である事前トレーニング、人間からのフィードバックなどの方法を用いてAIモデルの回答を微調整する事後トレーニング、そして推論段階で実行され、各質問の後にAIモデルに「考える」時間を与えるテスト時コンピューティングである。

「ムーアの法則はコンピューティングの歴史において非常に重要でした。コンピューティングコストを下げたからです」とフアン氏はTechCrunchに語った。「推論においても同様のことが起こるでしょう。パフォーマンスを向上させることで、結果として推論コストは下がるでしょう。」

(もちろん、NVIDIA は AI ブームに乗って地球上で最も価値のある企業に成長したため、そう言うことは Huang にとって利益になります。)

NvidiaのCEO、ジェンスン・フアン氏がGB200 NVL72を盾のように使っている。画像提供: Nvidia

NvidiaのH100は、AIモデルのトレーニングを目指すテクノロジー企業に選ばれるチップだったが、現在ではテクノロジー企業が推論に重点を置くようになり、Nvidiaの高価なチップが依然としてトップの座を維持できるかどうか疑問視する声もある。

テストタイムコンピューティングを使用するAIモデルは、現在、実行コストが高額です。テストタイムコンピューティングのスケールアップ版であるOpenAIのo3モデルは、ほとんどの人にとって高価すぎるのではないかという懸念があります。例えば、OpenAIはo3を使用して一般知能テストで人間レベルのスコアを達成するために、タスクごとに約20ドルを費やしました。ChatGPT Plusのサブスクリプションは、1か月分の使用料が20ドルです。

月曜日の基調講演で、フアン氏はNVIDIAの最新データセンター向けスーパーチップ「GB200 NVL72」を盾のようにステージ上で掲げた。このチップは、NVIDIAのこれまでのベストセラーチップであるH100と比べて、AI推論ワークロードの実行速度が30~40倍高速だ。フアン氏によると、このパフォーマンスの飛躍は、推論フェーズで大量の計算リソースを使用するOpenAIのo3のようなAI推論モデルが、時間の経過とともに安価になることを意味するという。

黄氏は、全体的にはより高性能なチップの開発に注力しており、長期的にはチップの高性能化によって価格が下がると述べている。

「テスト時のコンピューティングに対する直接的かつ即時的な解決策は、パフォーマンスとコストの両面で、コンピューティング能力を向上させることです」とフアン氏はTechCrunchに語った。長期的には、AI推論モデルを活用して、AIモデルの事前学習と事後学習のためのより優れたデータを作成できる可能性があると指摘した。

昨年、AIモデルの価格は確かに急落しました。これは、NVIDIAなどのハードウェア企業によるコンピューティングの飛躍的進歩が一因です。Huang氏は、OpenAIが発表した最初のバージョンはかなり高価だったものの、AI推論モデルでもこの​​傾向が続くと予想しています。

さらに広い視点から見ると、黄氏は、自社のAIチップは10年前の製品と比べて1000倍も高性能だと主張した。これはムーアの法則が示す基準をはるかに上回るペースであり、黄氏はこの勢いがすぐに衰える兆しはないと述べている。

TechCrunchではAIに特化したニュースレターを配信しています!毎週水曜日に受信ボックスに配信されますので、こちらからご登録ください。

マックスウェル・ゼフは、TechCrunchのAI専門シニアレポーターです。以前はGizmodo、Bloomberg、MSNBCでAIの台頭やシリコンバレーの銀行危機などを取材してきました。サンフランシスコを拠点としています。取材以外の時間は、ハイキング、サイクリング、ベイエリアのグルメ巡りを楽しんでいます。

Maxwell からの連絡を確認したり連絡を受けたりする場合は、[email protected]にメールを送信するか、Signal の mzeff.88 に暗号化されたメッセージを送信してください。

バイオを見る