GoogleのAIモードが米国で展開され、より深い調査や比較ショッピングなどのサポートが追加される

GoogleのAIモードが米国で展開され、より深い調査や比較ショッピングなどのサポートが追加される

GoogleのAIモードは、ユーザーがAIインターフェースを介して複雑で複数の部分から成る質問をすることができる実験的なGoogle検索機能であり、今週から米国の全ユーザーに向けて展開されると、同社は火曜日の年次開発者会議「Google I/O 2025」で発表した。

この機能は、Googleの既存のAIを活用した検索エクスペリエンス「AIオーバービュー」を基盤としており、検索結果ページの上部にAIが生成した概要を表示します。昨年リリースされたAIオーバービューは、ピザに接着剤を使うように勧めるなど、GoogleのAIが疑わしい回答やアドバイスを提供したため、結果にはばらつきがありました。

画像クレジット: Google

しかし、Googleは、AIオーバービューは精度こそ高くないものの、導入率の面では成功していると主張しており、月間15億人以上のユーザーがこのAI機能を利用している。今後、AIラボを終了し、200以上の国と地域に拡大し、40以上の言語で利用できるようになると同社は述べている。

一方、AIモードは、ユーザーが複雑な質問をしたり、フォローアップしたりすることを可能にします。当初はGoogle Search Labsでテスト用に提供されていたこの機能は、PerplexityやOpenAIといった他のAI企業が独自のウェブ検索機能でGoogleの領域に進出する中で登場しました。検索市場シェアを競合他社に奪われる可能性を懸念するGoogleにとって、AIモードは検索の未来像を示す象徴的な存在です。

画像クレジット: Google

AIモードの展開が拡大するにつれ、Googleはディープサーチを含むいくつかの新機能を宣伝しています。AIモードは質問を複数のサブトピックに分割してクエリに回答しますが、ディープサーチはそれを大規模に行います。数十、あるいは数百ものクエリを発行して回答を提示することができ、そのクエリにはリンクも含まれているため、ユーザーは自分で調査内容を詳しく調べることができます。

画像クレジット: Google

Google によれば、その結果、数分で完全に引用されたレポートが生成され、何時間もの調査を節約できる可能性があるという。

同社は、高額な家電製品や子供向けのサマーキャンプなどを比較ショッピングする場合にディープサーチ機能を使用することを提案した。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

画像クレジット: Google

AIモードに追加されるもう一つのAI搭載ショッピング機能は、アパレルのバーチャル「試着」オプションです。アップロードされた自分の写真から、対象のアイテムを着用した自分の画像を生成します。Googleによると、この機能は3D形状、生地の種類、伸縮性などを認識し、本日より検索ラボで展開を開始します。

Googleは今後数ヶ月以内に、米国ユーザー向けに、特定の価格に達した商品を購入するショッピングツールを提供する予定だと発表している。(ただし、このエージェントを起動するには、これまで通り「代理購入」をクリックする必要がある。)

AI Overviews と AI Mode はどちらも今後、Gemini 2.5 のカスタム バージョンを使用するようになり、Google によると、AI Mode の機能は今後 AI Overviews に徐々に展開される予定だという。

AIモードは、スポーツや金融に関するクエリにおける複雑なデータの使用もサポートし、近日中にLabsを通じて利用可能になります。これにより、ユーザーは「過去5シーズンにおけるフィリーズとホワイトソックスのホームゲームの勝率を年ごとに比較する」といった複雑な質問をすることができます。AIは複数のソースを検索し、そのデータを1つの回答にまとめ、さらにデータをより深く理解できるようにリアルタイムで視覚化も作成します。

画像クレジット: Google

もう1つの機能は、GoogleのエージェントであるProject Marinerを活用しています。Project Marinerは、ウェブと連携してユーザーに代わってアクションを実行します。当初はレストラン、イベント、その他の地域サービスに関する検索で利用可能でしたが、AIモードにより、複数のサイトで価格や空き状況を調べて最適なオプション(例えば、手頃な価格のコンサートチケットなど)を見つける時間を節約できます。

今夏後半に展開予定のSearch Liveでは、スマートフォンのカメラがリアルタイムで捉えているものに基づいて質問できるようになります。これはGoogle Lensの視覚検索機能を超え、GoogleのマルチモーダルAIシステム「Project Astra」と同様に、動画と音声の両方を使ってAIとインタラクティブな会話を交わすことができます。

画像クレジット: Google

検索結果は過去の検索履歴や、今夏にリリース予定の機能を使ってGoogleアプリと連携させた場合にもパーソナライズされます。例えば、Gmailと連携させると、Googleは予約確認メールから旅行日程を把握し、それに基づいて訪問先の都市で開催されるイベントをおすすめできるようになります。(プライバシーに関する懸念から反発も予想されるため、Googleはいつでもアプリを連携させたり解除したりできると述べています。)

同社によれば、Gmail はパーソナライズされたコンテキストをサポートする最初のアプリだという。

サラは2011年8月からTechCrunchの記者として働いています。彼女はReadWriteWebで3年以上勤務した後、TechCrunchに入社しました。記者になる前は、銀行、小売、ソフトウェアなど、様々な業界のIT業界で働いていました。

Sarah からの連絡を確認したり連絡を受けたりする場合は、[email protected]にメールを送信するか、Signal で sarahperez.01 に暗号化されたメッセージを送信してください。

バイオを見る