
企業がより複雑な機械学習モデルを構築するにつれて、これらのモデルのトレーニングと実行にかかるコストが深刻な問題となります。AWSは、コスト削減を支援するカスタムインスタンスシリーズを開発し、本日、大規模なワークロードのデータ処理をより効率的に行えるよう設計された、EC2向けの全く新しいInf2インスタンスのプレビューを発表しました。
AWS CEO のアダム・セリプスキー氏は本日、ラスベガスで開催された AWS re:Invent でこの発表を行った。
Selipsky 氏は AWS re:Invent の聴衆に次のように語りました。「Inf1 は小規模から中規模の複雑性モデルには最適ですが、大規模なモデルの場合、お客様は推論ワークロードに最適なリソース構成を実際に持っていないため、より強力なインスタンスに頼ることがよくあります。」
彼らがこれを行ったのは、これまで、こうした大規模なワークロードを処理するコストと複雑さを軽減できる別のソリューションがまったくなかったからです。
「お客様は、特定のニーズに最適なソリューションを選択したいと考えます。そのため、本日、当社の新しい inferentia2 チップを搭載した Inf2 インスタンスのプレビューを発表できることを嬉しく思います」と彼は述べた。
さらなるパワーを求める人々のために、Inf2はそれを提供します。「お客様は、Inf1インスタンスと比較して4倍のスループットと10分の1のレイテンシで、1750億パラメータの推論モデルを単一の機器に導入できます」と彼は述べています。
新しいインスタンスは、本日よりプレビューでご利用いただけます。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
トピック
ロン・ミラーは、TechCrunch の企業記者でした。
以前はEContent Magazineの寄稿編集者として長年活躍していました。CITEworld、DaniWeb、TechTarget、Internet Evolution、FierceContentManagementなどで定期的に記事を執筆していました。
開示事項:
ロンは以前、Intronisの企業ブロガーとしてIT関連の記事を毎週1回執筆していました。Ness、Novell、IBM Mid-market Blogger Programなど、様々な企業ブログに寄稿しています。
バイオを見る