Googleは画像とテキストを1つのクエリに組み合わせる新しい検索方法を導入しました

Googleは画像とテキストを1つのクエリに組み合わせる新しい検索方法を導入しました

今年初め、Googleは年次開発者会議「I/O」において、AIの新たなマイルストーンとなる「マルチタスク統合モデル(MUM)」を発表しました。この技術は、テキスト、画像、動画など、様々な形式の情報を同時に理解し、トピック、概念、アイデア間の関連性や洞察を導き出すことができます。本日、GoogleはMUMを自社製品に活用する計画の一つとして、Google Lensビジュアル検索のアップデートを発表しました。

Google レンズは同社の画像認識テクノロジーであり、携帯電話のカメラを使用して、リアルタイム翻訳、植物や動物の識別、写真からのコピーと貼り付け、カメラのビューファインダーに映っているものと類似するアイテムの検索、数学の問題の解決など、さまざまなタスクを実行できます。

Google は近々、MUM の機能を活用して Google Lens をアップグレードし、視覚検索にテキストを追加してユーザーが見たものについて質問できるようにすると発表しました。

実際には、このような機能はこのように機能します。Google検索で気に入ったシャツの写真を表示し、レンズアイコンをタップして、同じ柄の靴下を探してGoogleに尋ねることができます。「この柄の靴下」のように入力することで、テキスト入力だけで検索した場合には難しかったかもしれない方法で、Googleに関連性の高いクエリを見つけさせることができます。

画像クレジット: Google

これは、Googleが現在苦戦しているタイプのクエリ、つまり、探しているものに視覚的な要素があり、言葉だけでは表現が難しい、あるいは複数の表現方法があるようなクエリに特に役立つ可能性があります。画像と言葉を1つのクエリに組み合わせることで、Googleはより関連性の高い検索結果を提供できる可能性があります。

別の例として、自転車の部品が壊れてしまい、修理方法をGoogleで検索する必要があるとします。しかし、その部品の名称がわかりません。修理マニュアルを調べる代わりに、Googleレンズを自転車の壊れた部分に向け、「修理方法」と入力すれば、修理に役立つ動画の正確な瞬間に直接アクセスできます。

画像クレジット: Google

同社は、これらのAIを活用した取り組みは、新しい検索方法を可能にすることで、自社製品をエンドユーザーにとって「より役立つ」ものにするための手段だと考えている。携帯電話のカメラを検索機能の一部として利用することで、Googleは、主要な使用事例の多くが他のサービスに移行し始めている市場で、存在感を維持することを目指している。たとえば、今日のショッピング検索の多くは、Amazonから直接始まる。また、iPhoneユーザーが携帯電話で特定の操作を行う必要がある場合、Siri、Spotlight、App Store、またはネイティブアプリに頼って助けを得ることが多い。そしてAppleも、Google検索に代わる独自の検索機能を開発している。この取り組みの始まりは、iOS 15のSpotlight検索へのアップデートに見ることができる。Spotlight検索では、Googleクエリを必要とせずに、ユーザーが必要な情報に直接アクセスできるようになった。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

Google は、本日の Search On ライブ イベントで、Google 検索や動画検索の他の部分でも MUM を活用していくと発表した。

Google Lensのアップデートは今後数か月以内に展開される予定だが、導入されるすべての新しいAIモデルに共通する「厳格なテストと評価」をまだ通過する必要があるとしている。

サラは2011年8月からTechCrunchの記者として働いています。彼女はReadWriteWebで3年以上勤務した後、TechCrunchに入社しました。記者になる前は、銀行、小売、ソフトウェアなど、様々な業界のIT業界で働いていました。

Sarah からの連絡を確認したり連絡を受けたりする場合は、[email protected]にメールを送信するか、Signal で sarahperez.01 に暗号化されたメッセージを送信してください。

バイオを見る