
Googleは、機械学習を活用した新機能で翻訳サービスをアップグレードしました。これにより、店舗の店頭、メニュー、書類、名刺など、現実世界に表示されるテキストをより簡単に翻訳できるようになります。新機能では、元のテキストを翻訳で覆い隠すのではなく、翻訳されたテキストを画像の上にスマートに重ね合わせ、その下のピクセルをAI生成の背景で再構築することで、翻訳文をより自然に読めるようにします。
「多くの場合、言葉と背景画像のような文脈の組み合わせが、目にするものに真の意味を与えるのです」と、Google検索担当副社長兼ゼネラルマネージャーのキャシー・エドワーズ氏は本日の発表に先立つブリーフィングで説明した。「画像から伝わってくる重要な文脈を、テキストを翻訳することで覆い隠してしまうようなことは避けたいものです」と彼女は述べた。

このプロセスを実現するために、Googleは生成的敵対的ネットワーク(GANモデル)と呼ばれる機械学習技術を採用しています。これは、Google Pixelスマートフォンで撮影した写真からオブジェクトを消す「マジックイレーサー」機能に使われている技術と同じです。この進歩により、Googleは翻訳されたテキストを非常に複雑な画像にも融合させ、自然でシームレスな翻訳を実現できるとGoogleは述べています。画像を覆うオーバーレイではなく、翻訳されたテキストが表示されたアイテムやオブジェクトそのものを見ているように感じるはずです。
この機能は、Googleが新しいARグラスの開発にさらなる投資を行う計画を示唆する新たな展開と言えるでしょう。現実世界のテキストを翻訳する機能は、こうしたデバイスの重要なセールスポイントとなる可能性があります。Googleによると、毎月100以上の言語で10億回以上、Googleのテキストと画像を翻訳しているとのことです。また、今年に入り、少数の従業員と信頼できるテスターを対象に、公共の場でARプロトタイプのテストを開始したとのことです。
より優れた翻訳機能への需要は確かにあるが、ユーザーが翻訳に特別なメガネではなくスマートフォンを使うことを好むかどうかは不明だ。結局のところ、Googleがスマートグラス分野に初めて参入したGoogle Glassは、消費者向け製品としては失敗に終わった。
Googleは本日、翻訳機能の長期計画については語らず、今年後半にリリースする予定であるとだけ述べた。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
トピック
サラは2011年8月からTechCrunchの記者として働いています。彼女はReadWriteWebで3年以上勤務した後、TechCrunchに入社しました。記者になる前は、銀行、小売、ソフトウェアなど、様々な業界のIT業界で働いていました。
Sarah からの連絡を確認したり連絡を受けたりする場合は、[email protected]にメールを送信するか、Signal で sarahperez.01 に暗号化されたメッセージを送信してください。
バイオを見る