概要
投稿日:

AP通信の報道によると、ソフトウェアエンジニア、開発者、学術研究者らは、OpenAIのWhisperからの転写について深刻な懸念を抱いている。
生成 AI が幻覚を起こす傾向、つまり基本的に何かをでっち上げる傾向についてはこれまでも議論されてきましたが、書き起こしは書き起こされる音声に厳密に従うはずなので、これが書き起こしで問題になるというのは少々意外です。
研究者たちはAP通信に対し、ウィスパーは人種差別的な発言から想像上の医療行為まで、あらゆる情報をトランスクリプトに持ち込んでいると述べた。ウィスパーが病院などの医療現場で導入されるようになると、特に深刻な事態を招く可能性がある。
ミシガン大学の研究者が公開会議の音声記録を研究したところ、10件中8件に幻覚が見られました。機械学習エンジニアはWhisperの記録100時間分以上を調査し、その半数以上に幻覚が見られました。また、ある開発者はWhisperで作成した2万6000件の記録のほぼすべてに幻覚が見られたと報告しています。
OpenAIの広報担当者は、同社は「幻覚の軽減を含め、モデルの精度向上に継続的に取り組んでいる」と述べ、同社の利用ポリシーでは「特定の重要な意思決定の場面」でのWhisperの使用を禁止していると述べた。
「研究結果を共有してくれた研究者に感謝します」と彼らは述べた。
トピック
業界最大のテクノロジーニュースを購読する