研究人员称AI目前还不具备感知能力


©unsplash

有这样一个笑话:一个女儿问爸爸为什么在家里说话总是很低声。“因为到处都有在听我们说话的人工智能,”爸爸回答说。女儿笑了,父亲也笑了。小爱同学也笑了。

人工智能似乎渗透进我们生活的更多方面。随着AI大脑获得相当于百万博士学位的知识,吸收万亿比特的数据,并以富有吸引力的语气和举止生成回应,听起来如您最喜欢的老大学教授一般简单和人性化,一些人不禁要问:计算机是否正在变得有感知能力?

愤世嫉俗者会回答:“当然不是。计算机可能在几秒钟内解决需要人类几代才能解决的问题,但它们不能感受爱和痛苦,不能看到和欣赏月亮和星星,不能闻到我们溅在键盘上的咖啡。”

但其他人则建议我们需要更清楚地定义我们已理解为感知能力的内容。我们所理解的意识可能有不同程度吗?人类、动物和智能机器之间的主观体验是否有重叠的组成部分?

来自美国、英国、以色列、加拿大、法国和澳大利亚的19名神经科学家在8月22日发表在预印本服务器arXiv上的一份报告中探讨了这个问题。

OpenAI开发ChatGPT的一位首席科学家去年推测,先进的AI网络可能“略微有意识”。一年前,一名谷歌科学家在宣称LaMDA(聊天机器人Bard的前身)有感知能力后被解雇。

但是,在对众多意识理论进行了广泛分析后,题为“人工智能中的意识:来自意识科学的见解”的报告作者得出结论,AI系统没有意识;至少目前还没有。

然而,他们绘制了未来研究人员值得考虑的途径。

报告的主要作者Patrick Butlin说:“我们的分析表明,当前没有AI系统有意识,但也表明,没有任何技术障碍可以阻止构建满足这些指标的AI系统。”

他们将意识理论缩小到了他们认为是意识实体的六个令人信服的指标。

一个例子是递归处理理论,它指出大脑通过反馈循环处理信息。通过这样的循环,大脑可以适应变化的环境,调整感知,做出更明智的决定。这种迭代行为对记忆形成和获取新知识至关重要。

另一个关键概念是高阶理论,一些人总结为“意识到自己在意识”。

Butlin说:“高阶理论与其他理论的区别在于,它们强调,为了使心智状态有意识,主体必须意识到自己处于那种心智状态,以及它们提出解释这种意识的方式。”

第三个因素是全局工作空间理论。它认为,当信息在大脑中变得全局可访问时,意识就实现了。信息不局限于个别感觉输入,而是包含在可用于各种内在认知过程的全局中心。

报告提出的检测感知能力的工具“为评估AI系统是否可能具有意识提供了我们目前可用的最佳方法”,Butlin说。

Butlin说:“我们部分发表此报告是因为我们认真对待在相对近期内构建有意识的AI系统的可能性—在未来几十年内。这些前景引发了深刻的道德和社会问题。”

本文译自 techxplore,由 BALI 编辑发布。

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )

赞助商
2023-09-01
研究人员称AI目前还不具备感知能力
有这样一个笑话:一个女儿问爸爸为什么在家里说话总是很低声。“因为到处都有在听我们说话的人工智能,”爸爸回答说。女儿笑了,父亲也笑了。小爱同学也笑了。人工智能似乎渗透进我们生活的更多方面。

长按扫码 阅读全文

Baidu
map