
Googleは火曜日のGoogle I/O 2025で、同社の低遅延のマルチモーダルAIエクスペリエンスであるProject Astraが、検索、Gemini AIアプリ、サードパーティ開発者の製品における一連の新しいエクスペリエンスを強化すると発表した。
最も注目すべきは、Project AstraがGoogle検索の新機能「ライブ検索」に採用されている点です。GoogleのAI搭載検索機能「AIモード」やビジュアル検索機能「レンズ」を使用する際、「ライブ」ボタンをクリックするだけで、スマートフォンのカメラで捉えた映像について質問することができます。Project Astraはライブ映像と音声をAIモデルにストリーミングし、ユーザーの質問に遅延なく、あるいはほとんど遅延なく回答します。
Google I/O 2024で話題となったスマートグラスのデモを通じて初めて公開されたProject Astraは、Google DeepMindから生まれたもので、ほぼリアルタイムでマルチモーダルなAI機能を披露する手段として開発されました。Googleは現在、SamsungやWarby Parkerなどのパートナーと共同でProject Astraグラスを開発中であると発表していますが、発売日はまだ未定です。Googleは、消費者と開発者向けにProject Astraを活用した様々な機能を提供しています。
Googleによると、Project Astraは、開発者向けエンドポイントであるLive APIの新機能に利用されており、Geminiとの低遅延音声インタラクションを可能にする。火曜日から、開発者はProject Astraと同様に、音声とビジュアルの入力、そしてネイティブ音声出力をサポートするエクスペリエンスを構築できるようになる。Googleによると、アップデートされたLive APIでは感情検出機能も強化されており、AIモデルがより適切に反応するようになるほか、Geminiの推論AIモデルの思考機能も組み込まれているという。
Googleは、Geminiアプリにおいて、Project Astraのリアルタイムビデオと画面共有機能が全ユーザーに提供されると発表しました。Project AstraはすでにGemini Liveの低遅延会話を実現していますが、このビジュアル入力機能はこれまで有料会員限定でした。
Googleは、Project Astraが多くの自社製品の未来を担うと確信しているようだ。さらに、全く新しい製品カテゴリーであるスマートグラスの実現にもつながるかもしれない。確かにその通りかもしれないが、Googleは昨年デモを行ったProject Astraスマートグラスの発売日をまだ発表していない。同社はこれらのスマートグラスの外観についていくつか詳細を明らかにしているものの、現実には程遠いようだ。
トピック
マックスウェル・ゼフは、TechCrunchのAI専門シニアレポーターです。以前はGizmodo、Bloomberg、MSNBCでAIの台頭やシリコンバレーの銀行危機などを取材してきました。サンフランシスコを拠点としています。取材以外の時間は、ハイキング、サイクリング、ベイエリアのグルメ巡りを楽しんでいます。
Maxwell からの連絡を確認したり連絡を受けたりする場合は、[email protected]にメールを送信するか、Signal の mzeff.88 に暗号化されたメッセージを送信してください。
バイオを見る