Googleの新しい「マルチサーチ」機能はARグラスの未来を示唆している

Googleの新しい「マルチサーチ」機能はARグラスの未来を示唆している

Googleは4月に、テキストと画像の両方を同時に使用してウェブを検索できる新しい「マルチサーチ」機能を導入した。本日、GoogleのI/O開発者会議で、同社はこの機能の拡張機能「Multisearch Near Me」を発表した。2022年後半にリリースされるこの機能により、Googleアプリのユーザーは、写真またはスクリーンショットを「near me」というテキストと組み合わせて、探している衣料品、家庭用品、食品を扱っている地元の小売店やレストランのオプションに誘導される。また、スマートフォンのカメラのファインダーで現在「見ている」ものに基づいて、シーン内の複数のオブジェクトを視覚的に検索できるため、ARグラスを念頭に置いて構築されていると思われるマルチサーチの今後の開発も発表されている。

新しい「近くの」マルチ検索クエリを使用すると、現在使用している画像検索とテキスト検索の組み合わせに関連する地域オプションを見つけることができます。例えば、DIYプロジェクトで交換が必要な部品を見つけた場合、スマートフォンのカメラでその部品の写真を撮って特定し、交換部品を在庫している地元のホームセンターを見つけることができます。

Google の説明によると、これはマルチ検索の既存の仕組みとそれほど違いはなく、ローカル コンポーネントを追加しただけだという。

画像クレジット: Google

マルチサーチの当初のアイデアは、ユーザーが目の前にある物体について質問し、色、ブランド、その他の視覚的属性で結果を絞り込むことでした。現在、この機能はショッピング検索で最も効果を発揮しています。標準的なテキストベースのウェブ検索では難しい、商品検索の絞り込みを可能にするからです。例えば、ユーザーはスニーカーの写真を撮り、「青で見たい」というテキストを追加すると、指定した色のスニーカーだけが表示されます。スニーカーのウェブサイトにアクセスして、すぐに購入することもできます。「近くの」オプションが追加されたことで、検索結果がさらに絞り込まれ、特定の商品を販売している地元の小売店がユーザーに表示されるようになりました。

ユーザーが地元のレストランを見つけるのを支援するという点でも、この機能は同様に機能します。この場合、ユーザーは料理ブログやその他のウェブ上で見つけた写真に基づいて検索し、その料理が何であるか、そしてどの地元のレストランが店内飲食、持ち帰り、またはデリバリーのオプションをメニューに用意しているかを知ることができます。この場合、Google検索は画像と、ユーザーが近くのレストランを探しているという意図を組み合わせ、Googleマップにアップロードされた数百万もの画像、レビュー、コミュニティ投稿をスキャンして、地元の場所を見つけます。

Googleによると、新しい「近くのお店」機能は英語で全世界で利用可能となり、今後さらに多くの言語に展開される予定だという。

マルチサーチのさらに興味深い追加機能は、シーン内を検索できる機能です。Googleによると、将来的には、ユーザーはカメラをパンして、より広いシーン内の複数のオブジェクトについて調べることができるようになるとのことです。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

Google は、この機能を使って書店の棚をスキャンし、目の前にいくつかの役立つ洞察を重ねて表示できると示唆しています。

画像クレジット: Google

「これを実現するために、コンピュータービジョンと自然言語理解だけでなく、ウェブとデバイス上の技術に関する知識も融合させています」と、Google検索担当シニアディレクターのニック・ベル氏は述べた。「そのため、この技術の可能性と能力は計り知れず、非常に重要なものになるでしょう」と彼は付け加えた。

Google GlassのリリースによりAR市場に早くから参入した同社は、新たなARグラス型デバイスを開発中かどうかは認めなかったが、その可能性を示唆した。

「AIシステムによって、現在可能なこと、そして今後数年間で可能になることは、非常に多くの可能性を切り開くことになるでしょう」とベル氏は述べた。音声検索、デスクトップ検索、モバイル検索に加え、ビジュアル検索も将来的には大きな役割を果たすようになると同社は考えていると、同氏は指摘した。

「Google Lensを使ったビジュアル検索は現在、毎月80億回行われており、これはわずか1年前の3倍に相当します」とベル氏は続けた。「人々がビジュアル検索への欲求と願望を持っていることは、確かに実感しています。そして今、私たちが取り組んでいるのは、ユースケースを深く掘り下げ、これが最も効果的な分野を特定することです」と彼は述べた。「検索の未来を考える上で、ビジュアル検索は間違いなく重要な役割を果たすと考えています。」

もちろん、同社はProject Irisというコードネームで呼ばれる秘密プロジェクトに取り組んでおり、2024年の発売を予定する新しいARヘッドセットを開発中だと報じられています。このデバイスでシーンスキャン機能がどのように動作するかだけでなく、画像とテキスト(あるいは音声!)を組み合わせたあらゆる検索機能をARヘッドセットで利用できることも容易に想像できます。例えば、気に入ったスニーカーを見て、デバイスに最寄りの店舗までナビゲートしてもらい、購入できるところまで案内してもらう、そんな状況を想像してみてください。

「さらに先を見据えると、この技術は日常的なニーズを超えて、保護が必要な植物種を特定するために自然保護活動家を支援する、あるいは災害救援活動家が必要な時に寄付品を素早く仕分けするのを支援するなど、社会的課題の解決にも活用できる可能性がある」と、Google I/Oのステージで講演したGoogle検索担当SVPのプラバカール・ラガヴァン氏は示唆した。

残念ながら、Google はシーンスキャン機能をユーザーが利用できるようになる時期については明らかにしませんでした。この機能はまだ「開発中」だからです。

"読む