美联社近日的最新报道揭露了一个关于OpenAI的语音转写工具Whisper的重大缺陷。
据超过十位软件工程师、开发人员和学术研究人员透露,Whisper有时会生成大量虚假内容,这些内容被称为“AI幻觉”。这些幻觉内容可能包含种族歧视言论、暴力语言,甚至不实医疗建议。
Whispers的广泛应用和潜在风险
Whisper工具已被广泛应用于全球多个行业,包括翻译、访谈内容转录、生成消费科技文本和视频字幕制作等。这种广泛的应用使得Whisper的“幻觉”问题变得更加严重,因为它可能会在不经意间传播错误信息。
尤其是对于医疗机构来说,这一问题更为棘手。尽管OpenAI已经提醒用户不应在“高风险领域”使用Whisper,但一些医疗机构仍在急于采用基于Whisper的工具来记录医生与患者的咨询记录。
幻觉现象的普遍性
研究人员和工程师在工作中发现,Whisper的幻觉现象相当普遍。例如,密歇根大学的一位研究员在研究公共会议时发现,在尝试改进模型前,他所检查的十份音频转录中,有八份含有虚构内容。另一位机器学习工程师在分析超过100小时的Whisper转录时,发现大约一半的内容存在幻觉现象。
一位开发人员在其用Whisper生成的26000份转录中发现,几乎每一份都带有虚构内容。即便是音质良好的简短音频样本,也未能幸免于这些问题。计算机科学家们的研究表明,在审查的13000多段清晰音频片段中,有187段出现了幻觉现象。
OpenAI的回应
面对这一发现,OpenAI的发言人表示,公司正在持续研究如何减少幻觉,并感谢研究者的反馈。OpenAI承诺将在模型更新中采纳这些反馈,以改善Whisper的性能和可靠性。(Suky)
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )