Google は今週開催された Cloud Next カンファレンスで、最新世代の TPU AI アクセラレータ チップを発表しました。
Ironwoodと呼ばれるこの新しいチップは、Googleの第7世代TPUであり、推論、つまりAIモデルの実行に最適化されている初のチップです。Google Cloudのお客様向けに今年後半にリリース予定のIronwoodは、256チップクラスタと9,216チップクラスタの2つの構成で提供されます。
「Ironwoodは、これまでで最も強力で、高性能、そしてエネルギー効率に優れたTPUです」と、Google CloudのVPであるアミン・ヴァダット氏はTechCrunchに提供されたブログ記事に記している。「そして、大規模な思考型推論AIモデルを強化するために特別に設計されています。」
AIアクセラレータ分野の競争が激化する中、Ironwoodが登場しました。NVIDIAがリードしているものの、AmazonやMicrosoftといったテクノロジー大手は、それぞれ独自のソリューションを推進しています。AmazonはTrainium、Inferentia、GravitonといったプロセッサをAWS経由で提供しており、MicrosoftはMaia 100 AIチップ向けにAzureインスタンスをホストしています。

Googleの社内ベンチマークによると、Ironwoodはピーク時に4,614TFLOPSの演算能力を発揮します。各チップには192GBの専用RAMが搭載され、帯域幅は7.4Tbpsに迫ります。
Ironwoodには、高度なランキングやレコメンデーション(例えば、好みのアパレルを提案するアルゴリズム)といったワークロードでよく使われる種類のデータを処理するための、強化された専用コア「SparseCore」が搭載されています。Googleによると、TPUのアーキテクチャはチップ上でのデータ移動とレイテンシを最小限に抑えるように設計されており、結果として消費電力を削減できるとのことです。
グーグルは近い将来、アイアンウッドをグーグルクラウド内のモジュラーコンピューティングクラスターであるAIハイパーコンピュータと統合する予定だとヴァダット氏は付け加えた。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
「アイアンウッドは、計算能力、メモリ容量、ネットワークの進歩、信頼性の向上により、推論の時代におけるユニークなブレークスルーを表しています」とヴァダット氏は述べた。
午前10時45分(太平洋標準時)更新:以前の記事では 、MicrosoftのCobalt 100をAIチップと誤って記載していました。正しくは、Cobalt 100は汎用チップで、MicrosoftのMaia 100はAIチップです。この記述を修正しました。
カイル・ウィガーズは2025年6月までTechCrunchのAIエディターを務めていました。VentureBeatやDigital Trendsに加え、Android Police、Android Authority、Droid-Life、XDA-Developersといった様々なガジェットブログにも記事を寄稿しています。音楽療法士のパートナーとマンハッタンに在住。
バイオを見る