Google、レンズのマルチ検索にAI搭載の概要機能を追加

Google、レンズのマルチ検索にAI搭載の概要機能を追加

Googleは本日、Androidデバイス向けの新しいジェスチャー検索機能に加え、Google Lensのビジュアル検索機能にAIを活用した機能を追加しました。本日より、ユーザーはカメラをレンズに向けるか、写真やスクリーンショットをアップロードし、見えているものについて質問することで、生成AIによる回答を得ることができます。

この機能は、ウェブユーザーがテキストと画像を同時に検索できるLensのマルチ検索機能のアップデートです。以前は、この種の検索では他の画像検索に誘導されていましたが、本日のリリースにより、AIを活用したインサイトも得られるようになります。

画像クレジット: Google

一例として、Googleは、植物の写真を撮り、「いつ水やりすればいいですか?」と尋ねることで、植物についてより詳しく知ることができる機能を提案しています。ユーザーに植物の他の画像を表示するだけでなく、植物を識別し、「2週間ごと」など、どのくらいの頻度で水やりをすればよいかを教えてくれます。この機能は、ウェブサイト、製品サイト、動画など、ウェブから取得した情報を活用しています。

この機能は、Googleの新しい検索ジェスチャー「Circle to Search」にも対応しています。つまり、ジェスチャーでAIによるクエリ生成を開始し、丸で囲んだり、落書きしたり、あるいはもっと知りたいと思った項目について質問することができます。

しかし、Google は、Lens のマルチ検索機能は生成 AI の洞察を提供する一方で、オプトインのみで利用できる Google の実験的な GenAI 検索 SGE (Search Generative Experience) と同じ製品ではないことを明確にしました。

画像クレジット: Google

AIを活用したレンズのマルチ検索用概要機能は、本日より米国在住の全ユーザー向けに英語で提供されます。Googleの他のAI実験とは異なり、この機能はGoogle Labsに限定されません。この機能を使用するには、iOSまたはAndroidのGoogle検索アプリ、またはAndroidスマートフォンの検索ボックスでレンズのカメラアイコンをタップするだけです。

Circle to Searchと同様に、この追加機能はAI時代におけるGoogle検索の関連性を維持することを目的としています。今日のウェブはSEO最適化されたゴミで溢れていますが、Circle to Searchと、この隣接するAIを活用したLens機能は、Googleのインデックスに登録されている多くのウェブページを含む知識の網を活用することで検索結果を向上させ、異なる形式で結果を提供することを目指しています。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

それでも、AIに頼るということは、回答が必ずしも正確で関連性が高いとは限らないことを意味します。ウェブページは百科事典ではないため、回答の正確さは、その元となる情報源と、AIが「幻覚」(実際の回答がないのに誤った回答を出すこと)をせずに質問に答えられる能力によって決まります。

Googleは、Google Search Generative Experience(SGE)などのGenAI製品が出典を明示し、ユーザーが回答をファクトチェックできるようにすると述べている。SGEは引き続きLabsにとどまるものの、Googleは、マルチサーチの結果で現在行っているように、関連性のある場合に限り、生成AIの進歩をより広範囲に導入していくと述べている。

Lens のマルチ検索用 AI 概要機能は本日リリースされ、ジェスチャーベースの Circle to Search 機能は 1 月 31 日にリリースされます。

サラは2011年8月からTechCrunchの記者として働いています。彼女はReadWriteWebで3年以上勤務した後、TechCrunchに入社しました。記者になる前は、銀行、小売、ソフトウェアなど、様々な業界のIT業界で働いていました。

Sarah からの連絡を確認したり連絡を受けたりする場合は、[email protected]にメールを送信するか、Signal で sarahperez.01 に暗号化されたメッセージを送信してください。

バイオを見る