
GoogleはGoogle I/O 2025で、Google Meetにリアルタイム音声翻訳機能を導入すると発表しました。この機能は、Google DeepMindの大規模言語音声モデルを活用し、異なる言語を話す人と自然でスムーズな会話を可能にするとGoogleは述べています。
Meet の音声翻訳機能は、話された言葉をリアルタイムで聞き手の希望する言語に翻訳します。音声、トーン、表現はすべてそのまま翻訳されます。
同社は、この新機能には様々な活用例があると述べている。例えば、英語を話す孫がスペイン語を話す祖父母と会話するといった用途が考えられる。また、複数の地域で事業を展開する企業が、世界中の同僚とリアルタイムでつながり、チャットできるようにするといった用途も考えられる。
Google によれば、音声翻訳の遅延は非常に低く、これまでは不可能だった複数人でのチャットが可能になるという。

相手が話すときは、翻訳された音声が重ねて表示され、元の音声がかすかに聞こえます。
Google Meetの音声翻訳機能は、火曜日からベータ版として一般向けAIサブスクリプションに提供されます。この機能はまず英語とスペイン語で利用可能となり、今後数週間でイタリア語、ドイツ語、ポルトガル語など、さらに多くの言語に対応予定です。
Google は、Meet の音声翻訳機能を企業向けに構築しており、初期テストを今年中に Workspace の顧客向けに開始すると発表しました。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
トピック
アイシャはTechCrunchの消費者ニュース記者です。2021年にTechCrunchに入社する前は、MobileSyrupで通信関連記者を務めていました。アイシャはトロント大学で優等学士号、ウエスタン大学でジャーナリズムの修士号を取得しています。
Aisha からの連絡を確認したり、[email protected]にメールを送信したり、Signal で aisha_malik.01 に暗号化されたメッセージを送信したりすることができます。
バイオを見る