Google は本日、I/O 開発者会議において、Google Cloud の新しい Cloud TPU v4 Pod の完全なクラスターのパブリック プレビューを発表しました。
Googleは昨年のI/OでTensor Processing Unit(TPU)の第4世代を発表しました。1つのTPUポッドは4,096個のチップで構成されています。各チップのピーク性能は275テラフロップス、各ポッドは最大1.1エクサフロップスの総演算能力を誇ります。Googleは現在、オクラホマ州のデータセンターでこれらのポッド8個からなるフルクラスタを運用しており、ピーク時の総演算能力は最大9エクサフロップスに達します。Googleは、これにより「90%のカーボンフリーエネルギーで稼働しながら、累積演算能力の点で世界最大の公開MLハブ」となるとしています。
「私たちは、公開され、公開されている(つまり、クラウド上で稼働し、外部ユーザーが利用できる)MLクラスターを比較するために、広範な調査を実施しました」と、Googleの広報担当者は、ベンチマークの詳細について同社に問い合わせた際に説明しました。「これらのクラスターは、ML機能を備えたスーパーコンピューターによって駆動されています(つまり、NLP、レコメンデーションモデルなどのMLワークロードに適しています)。これらのスーパーコンピューターは、CPUとメモリに加えて、GPU(グラフィック・プロセッシング・ユニット)などのMLハードウェアを使用して構築されています。9エクサフロップスの性能を誇る当社のMLクラスターは、公開されている中で最大規模だと考えています。」
I/O 2021において、GoogleのCEOであるサンダー・ピチャイ氏は、「まもなくデータセンターに数十基のTPU v4ポッドを導入し、その多くは90%またはそれに近いカーボンフリーエネルギーで稼働する予定です。また、TPU v4ポッドは今年後半にクラウド顧客に提供される予定です」と述べました。明らかに、これは計画よりも少し時間がかかりましたが、世界的なチップ不足の真っ只中にあること、そしてこれらは結局のところカスタムチップであることです。
本日の発表に先立ち、Googleは研究者と協力し、これらのポッドへのアクセスを提供しました。「研究者たちは、TPU v4が提供する高速インターコネクトと最適化されたソフトウェアスタックによるパフォーマンスとスケーラビリティ、新しいTPU VMアーキテクチャによる独自のインタラクティブ開発環境の構築機能、そしてJAX、PyTorch、TensorFlowなどの好みのフレームワークを使用できる柔軟性を高く評価しました」とGoogleは本日の発表で述べています。当然のことです。より高速な機械学習ハードウェアを好まない人はいないでしょう。
Google によれば、ユーザーは新しいクラウド TPU v4 クラスターとそのポッドを、4 つのチップ (TPU 仮想マシンの最小数) へのアクセスから数千のチップへのアクセスまで、ニーズに合わせて細かく分割できるという。ただし、使用できるチップの数には限りがあるため、多すぎることもない。
現時点では、これらのポッドはオクラホマ州でのみ利用可能です。「様々な場所を徹底的に分析した結果、優れたカーボンフリーエネルギー供給を誇るオクラホマ州が、このようなクラスターを設置するのに最適な場所であると判断しました。お客様はほぼどこからでもアクセスできます」と広報担当者は説明しました。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
Googleが次世代カスタムAIチップを発表
フレデリックは2012年から2025年までTechCrunchに在籍していました。また、SiliconFilterを設立し、ReadWriteWeb(現ReadWrite)にも寄稿しています。フレデリックは、エンタープライズ、クラウド、開発者ツール、Google、Microsoft、ガジェット、交通機関など、興味のあるあらゆる分野をカバーしています。
バイオを見る