在所有关于杀手机器人的高调宣传下,2017年在人工智能方面取得了一些显著的进步。例如,今年初名为Libratus(冷扑大师)的人工智能系统可能会使顶尖德州扑克选手陷入尴尬的境地;更有名气点的AlphaGo,数次让围棋冠军折戟。而在现实世界中,机器学习正在用于改善农业,扩大医疗保健的覆盖面。
但是你最近和Siri或者Alexa谈过了吗?那么你会知道,尽管炒作、信心百倍的亿万富翁,可还有很多事情,人工智能仍然不能做或无法理解。人工智能还面临着五大棘手问题,明年专家们得绞尽脑汁了。
理解语言
机器在使用文本和语言方面比以往任何时候都更好。 Facebook可以读出对视障人士的图像描述。谷歌更是做了一个高级的工作,在回复电子邮件时给出简短建议。然而,软件仍然不能真正理解我们话语中的意思,以及我们分享给它们的想法。波特兰州立大学教授梅兰妮·米切尔(Melanie Mitchell)表示:“我们能够把我们学到的概念以不同的方式结合起来,并在新的情况下应用。”“而AI和机器学习系统却做不到。”
米切尔将今天的软件描述为数学家Gian Carlo-Rota所说的“意义障碍”。一些领先的AI研究团队正试图找出如何去解决的方法。
这项工作有的旨在为机器提供一种常识基础,以及支撑我们自己思维的物质世界。例如,Facebook研究人员正试图通过观看视频来教软件来理解现实。还有的模拟我们用与世界相关的知识可以来做什么。谷歌一直试图创造出能学习隐喻的软件。米切尔已经尝试过使用类比和关于世界的概念来系统解释照片中发生的事情。
阻碍机器人革命的“现实鸿沟”
机器人硬件已经相当不错了。你只需花500美元就可以买到手掌大小的无人机,还配有高清摄像头。搬运箱子和两条腿走路的机器也有所改进。为什么我们没有被机械助手包围住呢?因为今天的机器人缺乏匹配它们先进肌肉的大脑。
让机器人做任何事情都需要针对特定??的任务进行特定的编程。它们可以学习操作,如抓取物体的重复试验(和试错)。但是这个过程相对较慢。一个有希望的捷径是让机器人在虚拟、模拟的世界中训练,然后把那些来之不易的知识下载到物理机器人体内。然而,这种方法受到了“现实鸿沟”的困扰。现实鸿沟这个短语描述了机器人在模拟过程中学到的技能在转移到物理世界中时并不总是有效。
不过,“现实鸿沟”正在缩小。10月份,谷歌对虚拟和现实机器人进行实验,用手臂学会拾取包括胶带座、玩具和梳子在内的各种物体,得到了有希望的结果。
进一步的发展也给自动驾驶汽车工作者带来曙光。无人驾驶竞赛中的公司们在虚拟街道上部署虚拟车辆,以减少在实际交通和道路条件下测试所花费的时间和金钱。无人驾驶创业公司Aurora首席执行官Chris Urmson说,让虚拟测试更适用于真实车辆是他团队的优先考虑项之一。之前领导谷歌母公司Alphabet自主汽车项目的Urmson说:“明年以后我们可以很好地利用它来加快学习。”
防范AI黑客攻击
运行着我们的电网、安全摄像头和手机的软件受到安全漏洞的困扰。我们不应该期望无人车和家用机器人的软件有什么不同。事实上,这可能会更糟糕:有证据表明,机器学习软件的复杂性引入了新的攻击途径。
研究人员今年表示,你可以在机器学习系统内隐藏一个秘密触发器,导致它在看到一个特定的信号时变身“邪恶”模式。纽约大学研究小组设计了一个街道识别系统,通常情况下它能正常工作,除非它看到黄色便签。将一张黄色便签粘贴到布鲁克林的停车标志上,导致系统将该标志报告为限速。这些骗术可能会对自动驾驶汽车造成潜在问题。
这种威胁被认为是非常严重的,世界上最重要的机器学习会议的研究人员,在本月早些时候召开了一个关于机器欺骗威胁的研讨会。研究人员讨论了一些恶魔般的技巧,比如如何生成看起来与人类一样看似正常的手写数字,但软件看起来却不同。例如,你所看到的是数字2,机器视觉系统看就是3。研究人员还讨论了这种攻击的可能防御方法,并且担心人工智能被用来愚弄人类。
组织研讨会的Tim Hwang预测,随着机器学习变得更容易部署,功能更强大,使用该技术操纵人是不可避免的。他说:“你不再需要满满一屋子的博士来研究机器学习。”Hwang指出,在2016年总统选举期间,俄罗斯的虚假宣传运动是AI增强信息战的潜在先行者。他说:“为什么不在这些活动中看到机器学习领域的技术呢? Hwang预测了一个可能使机器学习产生虚假视频和音频的骗术。
不止桌游
Alphabet的围棋冠军软件在2017年迅速发展。5月份,AlphaGo一个更强大的版本击败了中国围棋冠军柯洁。AlphaGo的创造者是研究部门DeepMind,随后构建了一个版本,AlphaGo Zero,通过自我学习而打败人类。12月, AlphaZero又一次升级,它可以学习下棋和日本棋类游戏将棋。
这一系列结果令人印象十分深刻,同时也提醒人们AI软件的局限性。国际象棋、将棋和围棋都很复杂,但所有对手都有相对简单的规则和游戏玩法。它们是对计算机快速筛选未来许多可能的一种良好匹配。但生活中的大多数情况和问题都不是那么整齐有序。
这就是为什么DeepMind和Facebook都在2017年开始制作多人游戏《星际争霸》的原因。不过,两者都还没有取得太大进展。现在,由业余爱好者打造的最好的机器人,甚至都比不上那些技术高超的玩家。DeepMind的研究人员Oriol Vinyals今年早些时候对WIRE说,他的软件现在缺乏必要的规划和记忆能力,需要仔细地收集和指挥一支军队,同时对对手的行动进行预测和反应。并非巧合的是,这些技能也会让软件在帮助诸如办公室工作或真正的军事行动等真实任务方面做得更好。2018年星际争霸或类似游戏的重大进展可能预示着人工智能的强大新应用。
教AI辨别是非
即使在上述领域没有取得新的进展,如果现有的AI技术被广泛采用,经济和社会的许多方面也会发生很大的变化。当企业和政府急于这样做时,有人担心人工智能和机器学习造成的意外和故意伤害。
在本月的NIPS机器学习大会上,如何让技术保持在安全和道德的范围内是一个突出讨论的话题。研究人员发现,机器学习系统在接受来自“完美世界”的数据训练时,可以挑选出令人讨厌的或不想要的行为,比如永久的性别刻板印象。现在,一些人正在研究可以用于审计内部工作的人工智能系统技术,并确保它们在从事金融或医疗等行业工作时做出公平的决策。
明年应该能看到科技公司提出如何让人工智能站边人性的想法。谷歌,Facebook,微软和其他人已经开始讨论这个问题,并且成立一个新的非营利组织Partnership on AI,该组织将研究和尝试塑造人工智能的社会影响。同时还有来自许多独立组织的压力。一个名为“人工智能基金伦理与治理”的慈善项目正在支持麻省理工学院,哈佛大学等其他人研究人工智能和公共利益。纽约大学的一个新研究机构AI Now也有类似的任务。在最近的一份报告中,它呼吁各国政府发誓放弃在刑事司法或福利等领域使用没有公开检查的“黑匣子”算法。
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )