Amazonは生成AI(Generative AI)分野に参入している。しかし、AIモデルを自社で完全に構築するのではなく、AWS上でモデルをホストするサードパーティを募集している。
AWSは本日、Amazon Bedrockを発表しました。これは、AI21 Labs、Anthropic、Stability AIといったスタートアップ企業の事前学習済みモデルを用いて、生成型AIを搭載したアプリを構築する手段を提供します。Bedrockは「限定プレビュー」として提供されており、AWSが社内で学習したモデルファミリーであるTitan FM(基礎モデル)へのアクセスも提供します。
「機械学習を現実世界に適用し、現実のビジネス課題を大規模に解決することこそが、私たちの得意分野です」と、AWSのジェネレーティブAI担当VPであるヴァシ・フィロミン氏はTechCrunchとの電話インタビューで語った。「あらゆるアプリケーションは、ジェネレーティブAIによって再構築できると考えています。」
Bedrock のデビューは、AWS がここ数か月で生成 AI のスタートアップ企業と最近締結した提携や、生成 AI アプリの構築に必要な技術への投資の増加によって、ある程度予告されていました。
昨年11月、Stability AIはAWSを優先クラウドプロバイダーとして選定し、3月にはHugging FaceとAWSが提携して、Stability AIのテキスト生成モデルをAWSプラットフォームに導入しました。さらに最近では、AWSはスタートアップ向けの生成AIアクセラレーターを立ち上げ、NVIDIAと提携してAIモデルのトレーニングのための「次世代」インフラを構築すると発表しました。
基盤とカスタムモデル
グランド・ビュー・リサーチの推計によると、ベッドロックは、2030年までに1100億ドル近くの価値に達する可能性がある生成AI市場におけるアマゾンのこれまでで最も強力な取り組みである。
Bedrockを利用することで、AWSの顧客はAPI経由でAWSを含む様々なプロバイダーのAIモデルを利用できます。Amazonは正式な価格を発表していないため、詳細はやや不明瞭です。しかし、同社はBedrockが「エンタープライズ規模」のAIアプリを構築する大規模顧客を対象としていることを強調し、Replicate(そして既存のライバルであるGoogle CloudやAzure)といった既存のAIモデルホスティングサービスとの差別化を図っています。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
生成AIモデルベンダーは、AWSのリーチや潜在的な収益分配に惹かれてBedrockに参加したと推測されます。しかし、Amazonはモデルのライセンス契約やホスティング契約の条件を明らかにしていません。
Bedrockでホストされているサードパーティ製モデルには、AI21 LabsのJurassic-2ファミリーが含まれます。これは多言語対応で、スペイン語、フランス語、ドイツ語、ポルトガル語、イタリア語、オランダ語のテキストを生成できます。AnthropicのBedrock版モデルであるClaudeは、幅広い会話およびテキスト処理タスクを実行できます。一方、Stability AIのBedrockホスト型テキスト画像変換モデルスイート(Stable Diffusionを含む)は、画像、アート、ロゴ、グラフィックデザインを生成できます。

Amazonのカスタムメイド製品について言えば、Titan FMファミリーは現在、テキスト生成モデルと埋め込みモデルの2つのモデルで構成されており、将来的にはさらに多くのモデルが追加される予定です。テキスト生成モデルはOpenAIのGPT-4に似ていますが(パフォーマンス的には必ずしも同等ではありません)、ブログ記事やメールの作成、文書の要約、データベースからの情報抽出などのタスクを実行できます。埋め込みモデルは、単語やフレーズなどのテキスト入力を、テキストの意味を含む数値表現(埋め込み)に変換します。Philomin氏は、これはAmazon.comの検索を支えるモデルの1つに似ていると主張しています。
AWSのお客様は、AmazonのクラウドストレージプランであるAmazon S3内のラベル付きサンプルをサービスに指定することで、Bedrockモデルをカスタマイズできます。サンプルは20個程度で十分です。Amazonによると、基盤となるモデルのトレーニングには顧客データは使用されないとのことです。
「AWSでは、機械学習を民主化し、誰もが利用できるようにする上で重要な役割を果たしてきました」とフィロミン氏は述べた。「Amazon Bedrockは、基盤モデルを用いて生成型AIアプリケーションを構築・拡張する最も簡単な方法です。」
もちろん、生成 AI をめぐる法的な疑問が未解決であることを考えると、正確にどれだけの顧客が興味を持つのかは疑問です。
マイクロソフトは、OpenAIモデルにエンタープライズ顧客向けの追加機能をバンドルした生成AIモデルスイート「Azure OpenAI Service」で成功を収めています。3月時点で1,000社を超える顧客がAzure OpenAI Serviceを利用している、とマイクロソフトはブログ投稿で述べています。
フィロミン氏は率直に言って、AmazonのTitan FMファミリーが具体的にどのデータでトレーニングされたのかを明かすことを拒否し、あまり信頼感を与えるような発言はしなかった。その代わりに、TitanモデルはAWSの顧客がカスタマイズのために提供するデータ内の「有害な」コンテンツを検知・削除し、ユーザーが入力する「不適切な」コンテンツを拒否し、ヘイトスピーチ、冒とく、暴力を含む出力をフィルタリングするように構築されていると強調した。
もちろん、ChatGPTが実証したように、どんなに優れたフィルタリングシステムでも回避される可能性があります。ChatGPTや類似のモデルに対するいわゆるプロンプト・インジェクション攻撃は、マルウェアの作成、オープンソースコードの脆弱性の特定、そして忌まわしいほど性差別的、人種差別的、あるいは誤情報的なコンテンツの生成に利用されてきました。(生成AIモデルは、学習データ内のバイアスを増幅させる傾向があり、あるいは関連する学習データが不足した場合は、単純に事実を捏造するだけです。)
しかしフィロミン氏はそれらの懸念を無視した。
「私たちはこれらの技術を責任ある形で活用することに尽力しています」と彼は述べた。「規制の動向を注視しています。多くの弁護士の協力を得て、どのデータが使用可能で、どのデータが使用不可かを判断しています。」
フィロミン氏の保証の試みはさておき、ブランド側は万一の事態に巻き込まれても責任を負いたくないかもしれない。(訴訟になった場合、AWSの顧客、AWS自体、あるいは問題となっているモデルの作成者のいずれが責任を負うのか、完全には明らかではない。)しかし、個人顧客はそうするかもしれない。特に、その特権が無料であればなおさらだ。
CodeWhisperer、Trainium、Inferentia2 が GA でリリース
この件に関して、Amazon は本日、生成 AI への大きな取り組みに合わせて、AI を活用したコード生成サービスである CodeWhisperer を、使用制限なしで開発者に無料で提供しました。
この動きは、CodeWhispererがAmazonが期待したほどの普及を遂げていないことを示唆している。最大のライバルであるGitHubのCopilotは、1月時点で100万人以上のユーザーを抱えており、そのうち数千人はエンタープライズ顧客だ。CodeWhispererには確かに挽回すべき点があり、同時にCodeWhisperer Professional Tierをリリースすることで、企業側での挽回を目指している。CodeWhisperer Professional Tierは、AWS Identity and Access Managementとの連携によるシングルサインオン機能に加え、セキュリティ脆弱性のスキャンに対する上限値を引き上げる。
CodeWhispererは、前述のCopilotへの一種のレスポンスとして、AWS IDE ToolkitおよびAWS Toolkit IDE拡張機能の一部として6月下旬にリリースされました。公開されているオープンソースコードとAmazon独自のコードベース、そしてパブリックフォーラム上のドキュメントやコードでトレーニングされたCodeWhispererは、コメントや数回のキー入力だけで、Java、JavaScript、Pythonなどの言語で関数全体を自動補完できます。

CodeWhisperer は現在、Go、Rust、PHP、Ruby、Kotlin、C、C++、シェル スクリプト、SQL、Scala など、いくつかの追加プログラミング言語をサポートしています。また、これまでと同様に、トレーニング データで見つかった既存のスニペットに類似する関数に関連付けられたライセンスを強調表示し、オプションでフィルター処理します。
このハイライトは、GitHubがCopilotで直面している法的課題を回避するための試みです。それが成功するかどうかは、時が経てば分かるでしょう。
「これらのツールを使えば、開発者の生産性は大幅に向上します」とフィロミン氏は述べた。「開発者にとって、あらゆる情報を常に最新の状態に保つことは困難です。…このようなツールがあれば、開発者はそうした心配をせずに済みます。」
物議を醸す可能性は低いものの、Amazonは本日、Elastic Cloud Compute(EC2)Inf2インスタンスの一般提供を開始すると発表しました。このインスタンスは、昨年Amazon re:Inventカンファレンスでプレビューされた同社のAWS Inferentia2チップを搭載しています。Inf2インスタンスはAIランタイムの高速化を目的として設計されており、スループットの向上とレイテンシの低減により、推論コストパフォーマンス全体が向上します。
さらに、Amazonは、 AIトレーニング用にAmazonが独自に設計したチップであるAWS Trainiumを搭載したAmazon EC2 Trn1nインスタンスも本日より一般提供開始すると発表しました。Amazonによると、これらのインスタンスは最大1600Gbpsのネットワーク帯域幅を提供し、大規模でネットワーク負荷の高いモデルにおいてTrn1よりも最大20%高いパフォーマンスを実現するように設計されています。
Inf2 と Trn1n はどちらも、AI トレーニング用の Google の TPU チップなど、Google と Microsoft の競合製品と競合しています。
「AWSは生成AIにとって最も効果的なクラウドインフラストラクチャを提供しています」とフィロミン氏は自信を込めて語った。「お客様が求めているものの一つは、これらのモデルを扱うための適切なコストです。多くのお客様がこれらのモデルを本番環境に導入していない理由の一つは、まさにこれです。」
彼らの挑発的な発言は、生成型AIの成長がAzureを屈服させたと報じられていることを示している。Amazonも同じ運命を辿るのだろうか?それはまだ分からない。