Google I/O 2025: 今年の開発者会議で発表されたすべての内容

Google I/O 2025: 今年の開発者会議で発表されたすべての内容

Googleの年間最大規模の開発者カンファレンス、Google I/O 2025が、火曜日と水曜日にマウンテンビューのショアライン・アンフィシアターで開催されます。私たちは現地から、イベントの最新情報をお届けします。 

I/Oでは、Googleのポートフォリオ全体から発表される製品が多数紹介されます。Android、Chrome、Google検索、YouTube、そしてもちろん、GoogleのAI搭載チャットボット「Gemini」に関するニュースが盛りだくさんです。

GoogleはAndroidアップデートに特化したイベント「Android Show」を開催しました。このイベントでは、紛失したAndroidスマートフォンなどのデバイスを探すための新しい方法、高度な保護プログラムにおけるデバイスレベルの追加機能、詐欺や盗難から守るセキュリティツール、そして新しいデザイン言語「Material 3 Expressive」が発表されました。

Google I/O 2025 で発表されたすべての内容は次のとおりです。

ジェミニウルトラ

Googleによると、Gemini Ultra(現時点では米国のみ)は、GoogleのAI搭載アプリやサービスへの「最高レベルのアクセス」を提供するとのことです。月額249.99ドルで、Googleの動画ジェネレーター「Veo 3」、同社の新しい動画編集アプリ「Flow」、そしてまだリリースされていない強力なAI機能「Gemini 2.5 Pro Deep Thinkモード」が含まれています。

AI Ultraには、GoogleのNotebookLMプラットフォームと同社の画像リミックスアプリWhiskの上限が引き上げられています。AI Ultraの加入者は、ChromeのGoogle Geminiチャットボット、同社のProject Mariner技術を搭載した「エージェント」ツール、YouTube Premium、そしてGoogleドライブ、Googleフォト、Gmail全体で30TBのストレージにもアクセスできます。

Gemini 2.5 Proのディープシンク

Deep Thinkは、Googleの主力モデルであるGemini 2.5 Pro向けに強化された推論モードです。このモードでは、質問に対して複数の回答を検討してから回答できるため、特定のベンチマークにおけるパフォーマンスが向上します。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

Google は Deep Think の仕組みについて詳しく説明しなかったが、OpenAI の o1-pro や今後登場する o3-pro モデルに似ている可能性がある。これらのモデルは、与えられた問題に対する最善の解決策を検索して合成するエンジンを使用すると思われる。

Deep Thinkは、Gemini APIを介して「信頼できるテスター」に提供されます。Googleは、Deep Thinkを広く展開する前に、安全性の評価をさらに実施する必要があると述べています。

Veo 3 ビデオ生成 AI モデル

Googleによると、Veo 3は作成する動画に効果音、バックグラウンドノイズ、さらにはセリフまでも追加できるとのことです。また、Veo 3は、生成できる映像のクオリティにおいても、前作のVeo 2よりも向上しているとGoogleは述べています。

Veo 3は火曜日より、Googleの月額249.99ドルのAI Ultraプラン加入者向けのGoogle Geminiチャットボットアプリで利用可能となり、テキストまたは画像でプロンプトを出すことができる。

Imagen 4 AI画像ジェネレーター

Googleによると、Imagen 4はImagen 3よりも高速で、すぐにさらに高速化されるとのこと。近い将来、GoogleはImagen 3よりも最大10倍高速なImagen 4の派生版をリリースする予定です。

Googleによると、Imagen 4は布地、水滴、動物の毛皮といった「細かいディテール」をレンダリングできるという。フォトリアリスティックなスタイルと抽象的なスタイルの両方に対応し、様々なアスペクト比と最大2K解像度の画像を作成できる。

Veo 3 と Imagen 4 はどちらも、映画制作向けの同社の AI 搭載ビデオ ツールである Flow に搭載される予定です。 

画像4
Imagen 4 のサンプル画像クレジット: Google

Geminiアプリのアップデート

Google は、Gemini アプリの月間アクティブ ユーザー数が 400 人を超えたと発表した。 

Gemini Liveのカメラと画面共有機能は、今週、iOSとAndroidの全ユーザーに公開されます。Project Astraをベースにしたこの機能により、ユーザーはGeminiとほぼリアルタイムで会話できるだけでなく、スマートフォンのカメラや画面からAIモデルに動画をストリーミング配信できます。

Google によれば、Gemini Live は今後数週間で同社の他のアプリとのより深い統合も開始する予定で、まもなく Google マップからの道順案内、Google カレンダーでのイベント作成、Google Tasks での ToDo リスト作成などが可能になるという。

Google は、ユーザーが独自のプライベート PDF や画像をアップロードできるようにすることで、徹底的な調査レポートを生成する Gemini の AI エージェントである Deep Research をアップデートすると発表した。

ステッチ

Stitchは、Webアプリやモバイルアプリのフロントエンド設計を支援するAI搭載ツールです。必要なUI要素とコードを自動生成します。Stitchは、数語や画像を入力するだけでアプリのUIを作成でき、生成したデザインにHTMLとCSSのマークアップを提供します。

Stitch は、他のバイブコーディング製品と比較すると、できることが少し制限されていますが、カスタマイズ オプションはかなり豊富です。

Googleは、開発者によるコードバグ修正を支援するAIエージェント「Jules」へのアクセスも拡大しました。このツールは、開発者が複雑なコードを理解し、GitHubでプルリクエストを作成し、特定のバックログ項目やプログラミングタスクを処理するのに役立ちます。

プロジェクトマリナー

Project Marinerは、ウェブサイトを閲覧・利用するGoogleの実験的なAIエージェントです。Googleによると、Project Marinerの動作を大幅にアップデートし、エージェントが一度に12近くのタスクを処理できるようにしたとのことで、現在ユーザーに公開中です。

例えば、Project Marinerのユーザーは、サードパーティのウェブサイトにアクセスすることなく、野球の試合のチケットを購入したり、オンラインで食料品を購入したりできます。GoogleのAIエージェントとチャットするだけで、エージェントがウェブサイトを訪問し、ユーザーに代わってアクションを実行します。

アストラ計画

Google の低レイテンシ、マルチモーダル AI エクスペリエンスである Project Astra は、検索、Gemini AI アプリ、サードパーティ デベロッパーの製品における一連の新しいエクスペリエンスを強化します。 

Project Astraは、Google DeepMindから生まれた、ほぼリアルタイムでマルチモーダルなAI機能を披露する手段として生まれました。同社は現在、サムスンやワービー・パーカーなどのパートナーと共同でProject Astraグラスを開発中だと発表していますが、発売日はまだ決まっていません。 

画像クレジット: Google

AIモード

Google は今週、AI インターフェースを介して複雑な複数の質問をすることができる実験的な Google 検索機能である AI モードを米国のユーザー向けに展開します。

AIモードは、スポーツや金融に関する検索において複雑なデータの使用をサポートし、アパレルの「試着」オプションも提供します。今夏後半に展開予定のSearch Liveでは、スマートフォンのカメラがリアルタイムで捉えた映像に基づいて質問できるようになります。 

Gmail は、パーソナライズされたコンテキストがサポートされる最初のアプリです。

ビーム3Dテレビ会議

以前はStarlineと呼ばれていたBeamは、6台のカメラアレイとカスタムライトフィールドディスプレイを含むソフトウェアとハ​​ードウェアを組み合わせ、まるで同じ会議室にいるかのように会話を可能にします。AIモデルが、異なる角度でユーザーに向けて設置されたカメラからの映像を3Dレンダリングに変換します。

Google Beamは、「ほぼ完璧」なミリ単位のヘッドトラッキングと60fpsの動画ストリーミングを誇ります。Google Meetと併用すると、BeamはAIを活用したリアルタイム音声翻訳機能を提供し、話し手の声、トーン、表情を忠実に再現します。

Google Meet といえば、Google は Meet にリアルタイムの音声翻訳機能が搭載されることを発表しました。

AIのさらなるアップデート

Google は Chrome で Gemini をリリースします。これにより、ユーザーはページの内容を素早く理解し、タスクを完了するのに役立つ新しい AI ブラウジング アシスタントにアクセスできるようになります。 

Gemma 3nは、スマートフォン、ノートパソコン、タブレットで「スムーズに」動作するように設計されたモデルです。火曜日からプレビュー版が利用可能になり、Googleによると、音声、テキスト、画像、動画を処理できます。

同社はまた、Gmail、Google ドキュメント、Google Vids に多数の AI Workspace 機能を追加することを発表しました。特に注目すべきは、Gmail にパーソナライズされたスマート返信と新しい受信トレイ整理機能が追加され、Vids にはコンテンツの作成と編集の新しい方法が追加されることです。

NotebookLMにビデオオーバービュー機能が追加され、GoogleのSynthIDウォーターマーク技術を活用したAI生成コンテンツの識別を支援する検証ポータル「SynthID Detector」もリリースされました。実験的な音楽制作アプリを支えるAIモデル「Lyria RealTime」は、API経由で利用可能になりました。

ウェアOS6

Wear OS 6 では、タイルに統一されたフォントが導入され、アプリの外観がよりすっきりします。また、Pixel Watch では、アプリの色とウォッチフェイスを同期する動的なテーマ設定が採用されています。 

新しいデザインリファレンスプラットフォームの核となるのは、開発者がアプリ内でより優れたカスタマイズとシームレスな遷移を実現できるようにすることです。同社は、開発者向けのデザインガイドラインとFigmaのデザインファイルを公開しています。

画像クレジット: Google

Google Play

Google は、サブスクリプションを管理する新しいツール、ユーザーが特定の関心事に深く入り込めるトピック ページ、アプリのコンテンツを少しだけ覗けるオーディオ サンプル、アドオンの販売をスムーズにする新しいチェックアウト エクスペリエンスを導入し、Android 開発者向けの Play ストアを強化しています。

映画や番組の「トピックブラウズ」ページ(現時点では米国のみ)では、ユーザーは数多くの番組や映画に関連したアプリにアクセスできます。さらに、開発者向けにはテストとリリース専用のページと、アプリのリリース状況を監視・改善するためのツールが提供されます。Google Play を利用する開発者は、重大な問題が発生した場合、公開中のアプリのリリースを一時停止することもできます。

サブスクリプション管理ツールもアップグレードされ、複数商品のチェックアウトに対応しました。開発者はまもなく、メインのサブスクリプションに加えて、サブスクリプションのアドオンを一括払いで提供できるようになります。

Androidスタジオ

Android Studio には、Gemini 2.5 Pro モデルのリリースに合わせて「エージェントAI」機能である「Journeys」を含む新しいAI機能が統合されます。また、「エージェントモード」は、より複雑な開発プロセスに対応できるようになります。

Android Studio に新しい AI 機能が追加されます。これには、App Quality Insights パネルの強化された「クラッシュ インサイト」機能も含まれます。Gemini を活用したこの改善により、アプリのソースコードが分析され、クラッシュの潜在的な原因が特定され、修正方法が提案されます。