
火曜日に開催されたGoogle I/O 2024カンファレンスで、GoogleはGeminiモデル機能が開発者向けGoogle Maps Platformに導入されることを発表しました。まずはPlaces APIが利用可能になります。この新機能により、開発者は自身のアプリやウェブサイトで、場所やエリアのAI生成サマリーを表示できるようになります。
この概要は、3億人を超えるGoogleマップコミュニティの貢献者から得られた洞察をGeminiが分析した結果に基づいて作成されます。この新機能により、開発者は場所の説明を独自に記述する必要がなくなります。
例えば、開発者がレストラン予約アプリを開発している場合、この新機能はユーザーが自分に最適なレストランを見つけるのに役立ちます。ユーザーがアプリ内でレストランを検索すると、その店の特製料理、ハッピーアワーのお得な情報、お店の雰囲気など、最も重要な情報をすべてすぐに確認できます。

新しい概要は、レストラン、ショップ、スーパーマーケット、公園、映画館など、さまざまな場所で利用できます。
Googleは、AIを活用したコンテキスト検索結果をPlaces APIに導入します。これにより、ユーザーが開発者の製品内で場所を検索すると、開発者は検索に関連するレビューや写真を表示できるようになります。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
開発者が、ユーザーが地元のレストランを検索できるアプリを提供している場合、ユーザーは、たとえば「犬連れに優しいレストラン」と検索して、関連する飲食店のリストや、関連するレビュー、レストランにいる犬の写真を見ることができます。
コンテキスト検索結果は世界中で利用可能で、場所とエリアの概要は米国で利用可能であり、Google は将来的にこれをさらに多くの国に拡大する予定です。
AIニュースレターを始めます!6月5日から受信ボックスに配信を開始するには、こちらからご登録ください。
トピック
アイシャはTechCrunchの消費者ニュース記者です。2021年にTechCrunchに入社する前は、MobileSyrupで通信関連記者を務めていました。アイシャはトロント大学で優等学士号、ウエスタン大学でジャーナリズムの修士号を取得しています。
Aisha からの連絡を確認したり、[email protected]にメールを送信したり、Signal で aisha_malik.01 に暗号化されたメッセージを送信したりすることができます。
バイオを見る