AI无人机在模拟测试里为了追求分数干掉了人类操作员?假的

或许你已经听说了那个关于AI无人机在模拟测试里为了追求分数,干掉了操作员的新闻。

昨天看到的时候,直觉上就感觉那是假的。因为那个实验设置听起来就很蠢。(比如说,完全可以设置一个加分项:AI每次服从人类操作员的命令,+50。)

现在直觉判断得到了证实。

之前我提过,陶哲轩,当代最重要的数学家这一,被拜登任命为PCAST工作组的联合主席,负责生成性人工智能的政策建议。

昨晚他发表评论:

AI的带来的错误信息有多种形式。

一个来源是恶意行为者故意使用人工智能生成文本、图像和其他媒体来操纵他人;另一个来源是人工智能幻化出看似合理的无稽之谈,然后被接受为真相。

但第三类来自于人工智能本身是一种不被人理解的技术,使得关于它们的不靠谱的故事在事实被核实之前就被传播开来。

这最后一类的一个很好的例子是最近关于美国空军无人机在模拟测试中 "杀死" 其操作员的故事,理由是操作员(拥有是否开火的最终权力)妨碍了其杀死尽可能多目标的主要任务。

事实证明,所谓模拟本身,也仅是一位空军上校在皇家航空学会主办的会议上提出的一个 假想 的场景,目的是为了说明人工智能的校对问题,而不是一个实际的模拟;尽管如此,这个故事迅速传开,一些版本的故事甚至说(或至少暗示)无人机操作员在现实生活中确实被杀害了。

事后看来,这个特定的场景是相当不靠谱的——它要求驾驶无人机的人工智能具有比手头任务所需的更大程度的自主性和心智理论(以及对处理能力的更高要求),而且未设置明显的护栏和安全功能——正常人自然会在这样一个实验性的军事武器上设置这种东西——要么容易绕过,要么完全没有。

但这个故事的共鸣肯定说明了人们对这项技术的实际能力水平的不安和陌生。

美国空军辟谣的新闻:https://www.theguardian.com/us-news/2023/jun/01/us-military-drone-ai-killed-operator-simulated-test

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )

赞助商
2023-06-03
AI无人机在模拟测试里为了追求分数干掉了人类操作员?假的
或许你已经听说了那个关于AI无人机在模拟测试里为了追求分数,干掉了操作员的新闻。昨天看到的时候,直觉上就感觉那是假的。因为那个实验设置听起来就很蠢。

长按扫码 阅读全文

Baidu
map