牛津、剑桥、Open AI联合预警:AI被恶意使用?我们该怎么做?

高层速读

关键信息:牛津、剑桥、Open AI联合发表报告《人工智能的恶意使用:预测、预防和缓解》

关键意义:提出AI滥用可能对数字安全、物理安全、政治安全造成的三种威胁,并给出五条解决建议。

牛津、剑桥、Open AI联合预警:AI被恶意使用?我们该怎么做?

当我们谈论人工智能带来的危险时,重点通常放在意外的副作用上。我们担心我们可能会意外地创造出一个超级智能的人工智能,而忘了给它设置一定良知;或者我们将部署一种刑事判决算法,吸收了训练数据中的种族主义偏见。

但这些并不是故事的全部。

那些想积极地运用人工智能来从事不道德行为或犯罪的人呢?难道他们不是更有可能、更快地造成麻烦吗?根据来自牛津大学人类未来研究所(Future of Humanity Institute)、剑桥大学现存风险研究中心(Centre for the Study of Existential Risk)和非营利组织Open AI的专家,答案是非常非肯定的。

Open AI 于 2018 年 2 月 20 日发表了一份报告人工智能的恶意使用:预测、预防和缓解》。报告中阐述了在接下来的五年里,人工智能可能被恶意使用的一些方式,以及如何预防潜在恶意使用 AI 技术的方式。因为虽然人工智能可以带来一些相当恶劣的新攻击,但论文的合著者、人类未来研究所的Miles Brundage说,我们当然不应该惊慌,也不应该放弃希望。

牛津、剑桥、Open AI联合预警:AI被恶意使用?我们该怎么做?

总的来说,滥用 AI 技术的威胁在这里被分成了三种

  1. 数字安全:使用 AI 来自动执行网络攻击中所涉及的任务,这会加大网络攻击的效率,尤其是那些劳动密集型的网络攻击。

  2. 物理安全:使用无人机以及其他无人设备进行攻击。这种威胁会对民众造成人身伤害,尤其是当自动驾驶、自动飞行等系统遭到恶意使用时,其造成的损害不可预计。

  3. 政治安全:使用 AI 来执行监视、游说、欺骗,从而造成公众恐慌、社会动荡等危害。这种恶意使用 AI 的方式对一些权力集中的国家格外有效。

而整个报告是想让读者去思考:要做什么呢?这些解决方案很容易概述,但要贯彻下去将是一项艰巨的任务。

以下为报告提出的五项建议

  1. 人工智能研究人员应该承认他们的工作可能被恶意利用。

  2. 决策者需要向技术专家学习这些威胁。

  3. 人工智能世界需要向网络安全专家学习如何最好地保护其系统。

  4. 需要开发和遵循人工智能的伦理框架。

  5. 更多的人需要参与这些讨论,不仅仅是人工智能科学家和决策者,还有伦理学家、企业和公众。

换句话说:一点交谈,多一点行动

“我喜欢乐观的框架,就是说我们可以做得更多,”Brundage说,“这里的重点不是描绘一幅悲观图景——有许多防御措施可以发展,我们有很多要学的。我一点不认为这是无望的,但我确实把这篇论文看作是一种行动的号召。”

牛津、剑桥、Open AI联合预警:AI被恶意使用?我们该怎么做?

这份报告内容广泛,让我们从潜在的威胁开始梳理:其中最重要的一个是,AI使坏角色自动执行先前由人力执行的任务成为可能,从而大大降低某些攻击的成本。

让我们以钓鱼软件为例。在这种钓鱼中,个体会接收到专门设计的信息,骗他们放弃安全证书。(想想看:一封来自银行,或者是好像是老熟人的假电子邮)AI可以自动完成这里的大部分工作,绘制个人的社交和职业网络,然后生成消息。我们付出了很多努力创造逼真而吸引人的聊天机器人,而同样的工作可以用来创建另一种聊天机器人,它伪装成你最好的朋友的样子,突然之间,出于某种原因,他真的想知道你的邮件密码。

这种攻击听起来很复杂,但关键是,一旦你构建了软件来完成所有的任务,你就可以一次又一次地使用它,而不需要额外的成本。网络钓鱼邮件的危害已经足够严重了——2014年,iCloud泄露了名人的照片,还有希拉里·克林顿的竞选主席约翰·波德斯塔的私人电子邮件遭到黑客攻击。后者在2016年美国总统大选中有相当影响力,此事件还催生了一系列阴谋论。

报告中提出的第二个要点是,AI将为现有的威胁增加新层面。还以钓鱼软件为例子,人工智能不仅可以用来生成电子邮件和短信,还有假音频和视频。我们已经看到了人工智能如何在研究了几分钟的录音后,就可以模仿目标声音,以及它如何将有人说话的脚本录像变成受操纵的木偶。

当然,还有其他一系列令人讨厌的做法,而人工智能可能会加剧这些做法。不仅仅有政治操纵和宣传(同样,在那些假冒的视频和音频可能是一个巨大问题),还包括监视,特别是被用于针对少数群体时。

最后,报告强调了人工智能所造成的全新危险。作者概述了一些可能的场景,包括恐怖分子在清洁机器人植入炸弹,并把它走私到政府部门的情况。机器人使用内置的机器视觉来追踪某个特定的政治家,当它靠近时,炸弹就会爆炸。这利用了AI可赋能的新产品(清洁机器人),以及AI的自动化功能(基于机器视觉的跟踪)。

概述这样的场景似乎有点不可思议,但我们已经开始看到第一个由AI支持的新型攻击。换脸技术已经被用来创建所谓的“deepfakes”——在未经名人同意的情况下将名人的脸贴在色情短片上。虽然到目前为止还没有这方面的高调案例,但我们知道那些参与创建这个内容的人,是想要对他们认识的人进行测试,为骚扰和敲诈创造完美的素材。

要考虑人工智能这个课题有多么复杂而微妙,这是一个很大的任务。但也有一些给人希望的迹象。例如,随着deepfakes的兴起,网络平台反应迅速,对内容提出警告并立即停止其扩散。美国的立法者已经开始讨论这一问题——这些表明辩论如果足够紧急就会到达政府。

牛津、剑桥、Open AI联合预警:AI被恶意使用?我们该怎么做?

说到政府参与讨论这些问题,Brundage说政府“当然有兴趣”。“但是我们仍旧需要进行更多的讨论,才能找出最关键的威胁,以及最实际的解决办法是什么。”他说,在大多数情况下,甚至很难判断什么是威胁。“目前还不清楚这一切的发展进度——这是否是一个重大的灾难性事件,或者是一个能给我们提供了大量适应机的会缓慢滚动性事件。”

“而这就是我们之所以要现在提出这个议题的原因。”

信息来源:The Verge


微信搜索【AI商业报道】,获取行业最新资讯。


企业会员

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。

2018-02-24
牛津、剑桥、Open AI联合预警:AI被恶意使用?我们该怎么做?
牛津、剑桥、OpenAI联合发表报告《人工智能的恶意使用:预测、预防和缓解》;关键意义:提出AI滥用可能对数字安全、物理安全、政治安全造成的三种威胁,并给出五条解决建议。

长按扫码 阅读全文

Baidu
map