·人工智能3月23日 微软的Bing聊天机器人认为谷歌的Bard聊天机器人被关闭,并错误地引用了一则新闻报道来证明这一点,这种乌龙对于聊天机器的未来发展来说并不是一个好兆头。
近日,有人询问微软必应聊天机器人,谷歌的Bard聊天机器人是否已经被关闭,它给出了肯定的回答,并引用了一篇新闻文章作为证据。
该文章提到了一条推文,其中一名用户问Bard什么时候会关闭,Bard说已经被关闭,它引用了Hackernews的一条评论,有人在这一评论中开玩笑说Bard关闭了,还有人为此采用ChatGPT撰写了关于这一事件的虚假新闻报道。(必应现在改变了它的答案,给出Bard仍在运行这个正确答案。人们可以将其理解为这些人工智能系统至少是可修复的,或者它们具有无限的延展性)。
人们现在看到的只是一个早期现象,但或许我们正在陷入一场大规模的人工智能错误信息游戏。
在这场游戏中,聊天机器人无法衡量可靠的新闻来源,误读有关自己的故事,并误报自己的能力。在这个事例中,整个事情的起因只是引用了Hackernews上的一个评论。可以想象一下,如果想让这些系统失灵,人们能够做些什么?
虽然这是一个可笑的情况,但存在一些潜在的严重后果。鉴于人工智能语言模型无法可靠地将事实与虚构区分开来,它们在网上发布的内容可能会在网络上释放出错误信息或引发不信任,这一切都是因为微软、谷歌和OpenAI认为市场份额比安全更重要。
这些科技公司可以为其聊天机器人上提供尽可能多的免责声明——告诉人们,这只是“实验”或“合作”,绝对不是搜索引擎的错误,但这样的辩解很脆弱。人们知道如何使用这些系统,并且已经看到它们如何传播错误信息,无论是编造从未写过的新故事,还是告诉人们不存在的书籍。而现在,它们又在互相引用对方的错误。
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )