Googleは火曜日、ユーザーが検索内で直接複雑な質問やフォローアップをしてトピックをさらに深く掘り下げることができる実験的機能であるAIモードに新しい機能を追加すると発表した。
新機能の一つであるCanvasは、サイドパネルで複数のセッションにわたる学習計画を立て、情報を整理するのに役立ちます。例えば、次のテストに向けて学習計画を立てたい場合は、新しい「Canvasを作成」ボタンをクリックして開始できます。そこからAIモードがCanvasサイドパネルで学習計画の作成を開始し、フォローアッププロンプトを使用して出力を微調整することで、希望どおりの学習計画が完成するまで作業を進めることができます。
まもなく、授業ノートやシラバスなどのファイルをアップロードして、学習ガイドをカスタマイズできるようになります。米国のAI Mode Labs実験に参加しているユーザーは、今後数週間以内にCanvasを利用できるようになります。

Google はまた、同社のビジュアル検索ツールである Google Lens と統合された Search Live を通じて Project Astra の機能を AI モードに直接導入しています。
「ライブ検索を導入すると、スピードダイヤルに専門家がいて、見ているものを見て、難しい概念をリアルタイムで説明してくれるようなものになります。しかも、ウェブ上の役立つリンクにも簡単にアクセスできます」と、Google 検索のプロダクト担当副社長、ロビー・スタイン氏はプレスリリースで述べている。
この機能を使うには、Googleアプリでレンズを開き、ライブアイコンをタップして、カメラを何かに向けて質問をします。この機能により、ユーザーはカメラフィードからの視覚的なコンテキストを活用し、AIモードで検索と対話することができます。

ビデオ入力を備えた Search Live は、AI Mode Labs 実験に登録したユーザー向けに、今週、米国のモバイルで展開されます。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
さらに、Google は、ユーザーがまもなく AI モードで Lens を使用してデスクトップ画面に表示されているものを質問できるようになると発表しました。
「例えば、幾何学の問題を見ていて、図の1つをより深く理解したいとします」とスタイン氏は述べた。「アドレスバーから『このページについてGoogleに質問する』をクリックし、図を選択してください。サイドパネルに主要情報のスナップショットを含むAI概要が表示されます。そして今週、レンズ検索結果の上部にあるAIモードを選択するか、AI概要の下部にある『さらに詳しく見る』ボタンをクリックすることで、AIモードを通じてさらに多くの質問をすることができるようになります。」

さらに、GoogleアプリではAIモードを使って画像について質問することは既に可能ですが、デスクトップでも同様の機能が使えるようになりました。また、デスクトップでのPDFアップロードのサポートも追加され、ドキュメントに関する詳細な質問が可能になります。
たとえば、学校の講義の PDF スライドをアップロードし、フォローアップの質問をすることで、授業の教材を超えて理解を深めることができます。
Google によると、AI モードは今年後半に Google ドライブ ファイルなど、PDF や画像以外のファイル形式もサポートする予定だという。
アイシャはTechCrunchの消費者ニュース記者です。2021年にTechCrunchに入社する前は、MobileSyrupで通信関連記者を務めていました。アイシャはトロント大学で優等学士号、ウエスタン大学でジャーナリズムの修士号を取得しています。
Aisha からの連絡を確認したり、[email protected]にメールを送信したり、Signal で aisha_malik.01 に暗号化されたメッセージを送信したりすることができます。
バイオを見る