如何发现并预防人工智能“幻觉”?
当不确定答案时,生成式人工智能会产生“幻觉”,从而编造错误的答案。 牛津大学的研究人员开发了一个统计模型来识别可能的人工智能“幻觉”。 该方法区分了人工智能在内容和表达上的不确定性,提高了可靠性。
什么是人工智能幻觉?
人工智能幻觉是指人工智能系统在训练数据收集过程中,产生或推断不存在的不正确信息的情况。
如果不解决人工智能幻觉问题,则可能导致传播虚假信息和做出有偏见的判断等问题,从而引发经济和安全问题。
如何发现人工智能“幻觉”?
当生成式人工智能不知道问题的答案时,就会发出“幻觉”。以下是如何发现的方法。
牛津大学的研究人员发明了一种新方法,帮助用户判断生成式人工智能何时会出现“幻觉”。当人工智能系统被提出一个它不知道答案的问题时,就会出现这种情况,导致它编造一个错误的答案。
好在,有一些技巧可以帮助我们在发生这种情况时,及时发现并彻底防止发生。
如何阻止人工智能幻觉?
牛津大学团队的一项新研究建立了一个统计模型,该模型可以识别生成式人工智能聊天机器人提出的问题何时最有可能产生错误答案。
这对于生成式人工智能模型来说是一个真正的问题,因为它们交流方式的先进性意味着它们可以将虚假信息当作事实。今年2月ChatGPT因提供虚假答案而失控时就凸显了这一点。
随着各行各业越来越多的人开始使用人工智能工具来帮助学习、工作和日常生活,参与这项研究的人工智能专家呼吁人们,以更清晰的方式判断人工智能何时在编造答案,特别是在涉及医疗保健和法律等严肃话题时。
牛津大学的研究人员声称,其研究可以分辨出模型是正确的还是编造出来的。
研究作者Sebastian Farquhar在接受采访时表示:“LLM能够用多种不同的方式来表达同一件事,这使得我们很难分辨出其何时对答案有把握,何时只是在编造一些东西。使用以前的方法,无法区分模型是不确定要说什么,还是不确定如何表达。但新方法克服了这个问题。”
然而,在消除人工智能模型可能犯的错误方面,还有更多的工作要做。
Sebastian Farquhar补充道:“语义不确定性有助于解决特定的可靠性问题,但这只是一部分。如果LLM不断犯错,这种新方法就无法发现这一点。人工智能最危险的失败是,当系统出现错误却自信而系统化的时候。
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。