Amazon、大規模モデル向けに設計された新しいInf2インスタンスのプレビューを発表

Amazon、大規模モデル向けに設計された新しいInf2インスタンスのプレビューを発表
AWS re:Invent 2022 での Inf2 インスタンスの発表
画像クレジット: Amazon

企業がより複雑な機械学習モデルを構築するにつれて、これらのモデルのトレーニングと実行にかかるコストが深刻な問題となります。AWSは、コスト削減を支援するカスタムインスタンスシリーズを開発し、本日、大規模なワークロードのデータ処理をより効率的に行えるよう設計された、EC2向けの全く新しいInf2インスタンスのプレビューを発表しました。

AWS CEO のアダム・セリプスキー氏は本日、ラスベガスで開催された AWS re:Invent でこの発表を行った。

Selipsky 氏は AWS re:Invent の聴衆に次のように語りました。「Inf1 は小規模から中規模の複雑性モデルには最適ですが、大規模なモデルの場合、お客様は推論ワークロードに最適なリソース構成を実際に持っていないため、より強力なインスタンスに頼ることがよくあります。」

彼らがこれを行ったのは、これまで、こうした大規模なワークロードを処理するコストと複雑さを軽減できる別のソリューションがまったくなかったからです。

「お客様は、特定のニーズに最適なソリューションを選択したいと考えます。そのため、本日、当社の新しい inferentia2 チップを搭載した Inf2 インスタンスのプレビューを発表できることを嬉しく思います」と彼は述べた。

さらなるパワーを求める人々のために、Inf2はそれを提供します。「お客様は、Inf1インスタンスと比較して4倍のスループットと10分の1のレイテンシで、1750億パラメータの推論モデルを単一の機器に導入できます」と彼は述べています。

新しいインスタンスは、本日よりプレビューでご利用いただけます。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

AWS re:Invent 2022 の詳細については、TechCrunch をご覧ください。

トピック

ロン・ミラーは、TechCrunch の企業記者でした。

以前はEContent Magazineの寄稿編集者として長年活躍していました。CITEworld、DaniWeb、TechTarget、Internet Evolution、FierceContentManagementなどで定期的に記事を執筆していました。

開示事項:

ロンは以前、Intronisの企業ブロガーとしてIT関連の記事を毎週1回執筆していました。Ness、Novell、IBM Mid-market Blogger Programなど、様々な企業ブログに寄稿しています。

バイオを見る