“杀手机器人”即将成为现实 人类只剩1年时间阻止

据每日邮报报道,随着人工智能技术的进步,机器人独立选择和射杀目标的可能性正日益加大。全自动武器或称“杀人机器人”正迅速从科幻小说变成现实。但是新技术突破可能导致人类失去使用致命武器的控制权,人类现在只剩1年时间可以阻止“杀人机器人”诞生。

“杀人机器人”可被部署在陆海空领域,有望以惊人的方式彻底改变武装冲突和执法现状。支持者表示,“杀人机器人”的存在很有必要,因为现代战争节奏非常快,而机器人参战可以确保士兵和警察免受伤害。

可是“杀人机器人”对人类的威胁可能超过任何军事或执法部门获得的好处,人类失去对执法目标决策权将导致世界陷入危险,机器将可自主决定人类生死。平民受到不对称伤害或被列为错误目标的危险将大幅增加,而没人会为此负责。

鉴于全自动武器存在的道德、法律以及责任风险,控制它们的研发、制造以及使用已经迫在眉睫。应对这种威胁的最好方式就是制定有法律约束力的国际禁令。至少20个国家已经在4月份的联合国大会上表态,支持人类决定执法目标的选择。由人权观察组织和哈佛法学院国际人权诊所共同发布报告,也呼吁禁止全自动武器。

保持人类对“杀人机器人”的控制具有道德意义。因为人类拥有同情心,可以感受到受害者的情绪变化。他们尊重人类尊严,会慎重考虑行动后果。而机器人缺少这些情绪,包括移情作用。此外,无情的机器并不理解人类生命的价值。由机器人决定是否使用武力将伤害人类尊严。

人类控制“杀人机器人”也会促进遵守国际法,后者主要用于保护平民和士兵。人类可以基于以往的经验和道德规范做出判断,可是“杀人机器人”无法复制这种判断,无法对它们进行可应对所有假设情况的预先编程。结果,这些“杀人机器人”无法像“理性指挥官”那样做出选择和判断。

按照国际刑法规定,人类操作者大多数情况下不必承担武器伤害引发的责任。除非人类使用全自动武器实行犯罪,否则让人类为机器人的行为负责是不公平的,毕竟人类操作员无法预防或惩罚机器人。此外,寻求让全自动武器程序员和制造商承担责任也存在法律障碍,比如美国大多数武器制造商拥有豁免权。

在4月份的联合国会议上,94个国家支持对处理“致命自动武器系统”开始正式讨论,以决定这些系统是否受到《常规武器公约》限制。这些国家将于12月份参加评估会议,为未来工作设定议程。在12月份评估大会上,加入常规武器公约的国家有可能提议完全禁止全自动武器。

他们应该发起新的国际协议谈判以应对全自动武器威胁,但是制定国际法的过程相当缓慢,许多国家应该更快行动起来,以应对全自动武器的威胁。他们应该抓住评估大会的机会,让技术失去控制可能产生可怕的、空前的人道主义灾难。


企业会员

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。

2016-06-19
“杀手机器人”即将成为现实 人类只剩1年时间阻止
在4月份的联合国会议上,94个国家支持对处理“致命自动武器系统”开始正式讨论,以决定这些系统是否受到《常规武器公约》限制。这些国家将于12月份参加评估会议,为未来工作设定议程。在12月份评估大会上,加入常规武器公约的国家有可能提议完全禁止全自动武器。

长按扫码 阅读全文

Baidu
map