霍金再发警告:人工智能可能通过核战争或生物战争摧毁人类

文|华尔街见闻

3月13日讯,人工智能(AI)技术一直是著名物理学家史蒂芬·霍金(Stephen Hawking)关注的重点。继2015年9月抛出“人工智能威胁论”之后,近日霍金再次表达了他对人工智能技术的担忧。

本月8日,霍金向英国《独立报》表示,人类必须建立有效机制尽早识别威胁所在,防止新科技(人工智能)对人类带来的威胁进一步上升。

霍金表示:自从人类文明形成以来,来自生存能力优势群体的侵略就一直存在,而未来新科技(人工智能)进一步发展便可能具备这种优势,它们可能会通过核战争或生物战争摧毁我们。因此人类需要利用逻辑和理性去控制未来可能出现的威胁。

霍金还就如何应对人工智能的威胁给出了自己的建议。霍金认为,人类可以组成某种形式的“世界政府”来防范人工智能可能带来的威胁,但他同时认为“世界政府”本身也有问题,因为这样一个政府可能会施行暴政。

实际上,霍金是人工智能技术的支持者,霍金认为,如今AI似乎已经渗透到各个领域,包括推动自动汽车进步,支持Facebook的广告筛选功能,并通过苹果Siri、亚马逊Alexa等虚拟助理与世界各地的人们互动。AI甚至可帮助根除长期存在的社会挑战,比如疾病和贫困等。

但霍金也一直对AI带来的潜在挑战表示担忧。2015年9月,霍金在美国网站reddit的AMA(问我任何问题)专栏中谈到,他担心聪明能干的AI会让人类灭亡。霍金表示:

一个超级聪明的AI可以非常好地实现它的目标,如果这些目标都没有与我们人类一致,我们人类就麻烦了。

近年来,随着人工智能技术蓬勃发展,其潜在的威胁受到越来越多科学家的关注。

英国牛津大学教授、人类未来研究所创始人Nick Bostrom表示:

我认为改善全球治理很有必要,不仅可应对AI带来的危险挑战,也可解决摆在我们面前的其他巨大挑战。随着世界不断分化,我们在不断开发出越来越强大的工具,我不确定人类是否能够无限期生存下去。

对比霍金等人“人工智能将威胁人类”的观点,普林斯顿大学计算机科学教授Edward Felten更关注眼下人工智能技术带来的影响,他表示:

AI主要有两个经济风险:第一,工人具备的技能与未来工厂所需要的技能可能不匹配。第二,通过增加资本所有者和某些高级技工的回报,AI可能加剧经济不平等性。

Edward Felten认为,计算机科学领域还不存在完美基础,可以促使机器智能水平突然加速提高。上述问题可以通过调整公共政策解决,比如重新分配生产力。

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )

赞助商
2017-03-14
霍金再发警告:人工智能可能通过核战争或生物战争摧毁人类
人工智能(AI)技术一直是著名物理学家史蒂芬·霍金(Stephen Hawking)关注的重点。继2015年9月抛出“人工智能威胁论”之后,近日霍金再次表达了他对人工智能技术的担忧。

长按扫码 阅读全文

Baidu
map