GoogleはいつかProject AstraのARグラスを販売したいと考えているが、それは今日ではないだろう

GoogleはいつかProject AstraのARグラスを販売したいと考えているが、それは今日ではないだろう

Googleは、将来的に拡張現実(AR)とマルチモーダルAI機能を搭載したメガネを販売するというビジョンを徐々に明らかにしつつある。しかし、同社の具体的な計画はまだ不透明だ。

現時点では、ディープマインドがAIを活用したリアルタイム・マルチモーダルアプリやエージェントの開発を目指すプロジェクト「Project Astra」のデモが、謎めいたプロトタイプグラス上で複数回実行されているのを目にしてきました。Googleは水曜日、AIとAR機能を搭載したこのプロトタイプグラスを、選ばれた少数のユーザーに実環境でのテストのために公開すると発表しました。

Googleは木曜日、Project Astraのプロトタイプグラスが、Googleのビジョンベースコンピューティング向け新OS「Android XR」上で動作すると発表した。現在、ハードウェアメーカーや開発者は、このOSをベースに様々なグラス、ヘッドセット、そして体験を開発できるようになっている。

Googleのプロトタイプグラスに搭載された翻訳機能のデモ。画像提供: Google

このスマートグラスはクールに見えますが、実質的にはベーパーウェアであることを忘れてはなりません。Googleは実際の製品や発売時期について、まだ具体的な情報を発表していません。しかし、プレスリリースではスマートグラスとヘッドセットを「次世代コンピューティング」と呼んでおり、同社がいずれこれらのスマートグラスを発売したいと考えていることは間違いありません。現在、GoogleはProject AstraとAndroid XRを開発しており、これらのスマートグラスが将来的に製品化されることを期待しています。

Google はまた、プロトタイプのメガネが Project Astra と AR 技術を使用して、目の前のポスターを翻訳したり、家の中で物をどこに置いたかを記憶したり、携帯電話を取り出さずにテキストを読んだりできる様子を示す新しいデモも公開しました。

「メガネはハンズフリーで、簡単にアクセスできるウェアラブルデバイスであるため、最も強力なフォームファクターの一つです。どこへ行っても、あなたが見ているものをメガネが認識します」と、DeepMindのプロダクトリーダーであるBibo Xu氏は、Googleのマウンテンビュー本社で行われたTechCrunchのインタビューで述べた。「Astraにはまさに最適です。」

Googleのプロトタイプグラスのクローズアップ。画像提供: Google

Googleの広報担当者はTechCrunchに対し、このプロトタイプの一般向け発売時期は未定だと語った。また、同社はこのメガネに搭載されているAR技術や価格、実際の仕組みなどについて、多くの詳細を明らかにしていない。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

しかし、グーグルは少なくとも木曜日のプレスリリースでARとAIグラスに関するビジョンを明らかにした。

Android XR は将来、一日中使えるメガネにも対応する予定です。スタイリッシュで快適なメガネを、毎日使いたくなるような、そして他の Android デバイスとシームレスに連携する、幅広い選択肢をご用意したいと考えています。Android XR 搭載のメガネなら、Gemini のパワーをワンタップで活用でき、スマートフォンを取り出さなくても、必要な時に道順、翻訳、メッセージの概要など、役立つ情報が表示されます。すべてが視界内、あるいは耳元で操作できます。 

Googleのプロトタイプグラスのデモ。画像提供: Google

ここ数ヶ月、多くのテクノロジー企業がARグラスに関して同様の壮大なビジョンを描いています。Metaは最近、ARグラスのプロトタイプ「Orion」を披露しましたが、こちらも一般向け発売日は未定です。SnapのSpectaclesは開発者向けに販売されていますが、こちらもまだ一般向け製品ではありません。

しかし、Googleが競合他社に対して優位性を持っているように見えるのは、Project Astraです。同社は近日中に少数のベータテスター向けにアプリとしてリリースする予定です。私は今週初め、このマルチモーダルAIエージェントを試す機会を得ました。ただし、メガネではなくスマートフォンアプリとしてです。現在、一般ユーザー向けには提供されていませんが、非常にうまく機能していることを確認できました。

Googleキャンパス内の図書館を歩き回り、スマートフォンのカメラを様々な物に向けながら、Astraに話しかけました。Astraは私の音声と映像を同時に処理し、私が見ているものについて質問すると、リアルタイムで回答を得ることができました。本の表紙を次々とめくると、Astraは私が見ている著者と本の概要を素早く表示してくれました。

Project Astraは、周囲の画像を1秒ごとに1フレームずつAIモデルにストリーミングし、リアルタイム処理を行います。同時に、ユーザーが話す音声も処理します。Google DeepMindによると、収集したユーザーデータを使ってモデルをトレーニングしているわけではないとのことですが、AIモデルはユーザーの周囲の状況と会話を10分間記憶します。これにより、AIはユーザーが以前に見たものや言ったことを思い出すことができます。

Google DeepMindのメンバー数名が、Astraがスマートフォンの画面を読み取る様子を見せてくれました。スマートフォンのカメラを通して見るのと同じように、このAIはAirbnbのリスティングを素早く要約し、Googleマップを使って周辺の目的地を表示し、スマートフォンの画面に映っているものに基づいてGoogle検索を実行しました。

スマートフォンでProject Astraを使えるというのは素晴らしいことであり、AIアプリの未来を予感させるものと言えるでしょう。OpenAIはGPT-4oの視覚機能もデモしました。これはProject Astraに類似しており、こちらも近日中にリリースされると予告されています。これらのアプリは、テキストチャットの領域をはるかに超える機能を提供することで、AIアシスタントの利便性を飛躍的に向上させる可能性があります。

Project Astraをスマートフォンで使っていると、AIモデルがメガネに搭載されるのがまさに理想的だと分かります。Googleも同じアイデアを持っていたようですが、実現にはまだ時間がかかるかもしれません。

TechCrunchではAIに特化したニュースレターを配信しています!  毎週水曜日に受信ボックスに配信されますので、こちらからご登録ください。

マックスウェル・ゼフは、TechCrunchのAI専門シニアレポーターです。以前はGizmodo、Bloomberg、MSNBCでAIの台頭やシリコンバレーの銀行危機などを取材してきました。サンフランシスコを拠点としています。取材以外の時間は、ハイキング、サイクリング、ベイエリアのグルメ巡りを楽しんでいます。

Maxwell からの連絡を確認したり連絡を受けたりする場合は、[email protected]にメールを送信するか、Signal の mzeff.88 に暗号化されたメッセージを送信してください。

バイオを見る