今週はラスベガスでGoogle Cloud Nextが開催されます。つまり、Google Cloud Platformに多数の新しいインスタンスタイプとアクセラレータが登場する時期です。Armベースの新しいカスタムAxionチップに加え、今年の発表のほとんどは、Google製かNVIDIA製かを問わず、AIアクセラレータに関するものです。
ほんの数週間前、NvidiaはBlackwellプラットフォームを発表しました。しかし、Googleがすぐにこれらのマシンを提供するとは期待できません。AIおよびHPCワークロード向けの高性能Nvidia HGX B200と、大規模言語モデル(LLM)トレーニング向けのGB200 NBL72のサポートは、2025年初頭に開始される予定です。Googleの発表で興味深い点が1つあります。それは、GB200サーバーが液冷式になるということです。
これは少し時期尚早の発表のように聞こえるかもしれないが、Nvidia は Blackwell チップが今年の第 4 四半期までは一般公開されないと発表した。

ブラックウェル以前
現在、LLMのトレーニングにさらなるパワーを必要とする開発者向けに、GoogleはA3 Megaインスタンスも発表しました。NVIDIAと共同開発したこのインスタンスは、業界標準のH100 GPUを搭載し、GPUあたり最大2倍の帯域幅を実現する新しいネットワークシステムと組み合わせられています。
もう一つの新しいA3インスタンスはA3コンフィデンシャルで、Googleは顧客が「トレーニングと推論中に機密データとAIワークロードの機密性と整合性をより適切に保護」できるようにすると説明しています。同社は長年にわたり、使用中のデータを暗号化するコンフィデンシャルコンピューティングサービスを提供してきました。今回、コンフィデンシャルコンピューティングを有効にすると、保護されたPCIe経由でIntel CPUとNvidia H100 GPU間のデータ転送が暗号化されます。Googleによると、コードの変更は不要とのことです。
Google独自のチップについては、同社は火曜日に、自社開発のAIアクセラレータの中で最も強力なCloud TPU v5pプロセッサの一般提供を開始しました。これらのチップは、1秒あたりの浮動小数点演算速度が2倍、メモリ帯域幅速度が3倍向上しています。

これらすべての高速チップには、それらに対応できる基盤アーキテクチャが必要です。そこでGoogleは火曜日、新しいチップに加えて、AIに最適化された新しいストレージオプションも発表しました。現在プレビュー段階にあるHyperdisk MLは、Googleによると、モデルの読み込み時間を最大3.7倍短縮できる同社の次世代ブロックストレージサービスです。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
Google Cloudは、Intelの第4世代および第5世代Xeonプロセッサを搭載した、より従来型のインスタンスも複数リリースします。例えば、新しい汎用インスタンスであるC4およびN4は、第5世代Emerald Rapids Xeonを搭載し、C4はパフォーマンス重視、N4は価格重視となっています。新しいC4インスタンスは現在プライベートプレビュー中で、N4インスタンスは本日一般提供を開始しました。
また、新しいものでありながらまだプレビュー段階のものとして、旧型の第 4 世代 Intel Xeon を搭載した C3 ベアメタル マシン、X4 メモリ最適化ベアメタル インスタンス (これもプレビュー段階)、そして Google Cloud 初のストレージ最適化仮想マシンである Z3 があり、これは「主要クラウドの中でストレージ最適化インスタンスの最高の IOPS」を提供することを約束しています。
フレデリックは2012年から2025年までTechCrunchに在籍していました。また、SiliconFilterを設立し、ReadWriteWeb(現ReadWrite)にも寄稿しています。フレデリックは、エンタープライズ、クラウド、開発者ツール、Google、Microsoft、ガジェット、交通機関など、興味のあるあらゆる分野をカバーしています。
バイオを見る