李飞飞论战赫拉利:AI之战一旦爆发,或将碾压核竞赛

本周,斯坦福伦理与社会中心、斯坦福人类中心人工智能研究所以及斯坦福人类中心联合举办了一次活动,邀请到人工智能领域的先驱李飞飞和畅销书《人类简史》、《未来简史》作者尤瓦尔·赫拉利(Yuval Noah Harari)。

我们不仅面临着一场技术危机,同时还有哲学危机

Yuval:在我看来,现代社会的哲学框架仍然来源于17世纪和18世纪,人类能动性、个人自由意志等理念正在受到前所未有的挑战,这种挑战并非来源于其他哲学理念,而是来源于现代科学技术。越来越多原本属于哲学领域的问题,正在转变成工程类问题。这非常可怕,因为工程师不像哲学家那么耐心,哲学家们可以为一个问题讨论个几千年,如果没有找到满意的答案,那么他们就不会停歇,工程师们则争分夺秒。

这也就是说,我们已经没有太多的时间。为了简单概括一下我们面临的危机,我可以列出这么一个等式:B×C×D=HH。其中B代表的是生物学知识,C代表的是计算机的能力,D代表数据,HH代表的是“hack human”。

而人工智能的革命并不只是涉足人工智能领域,这也和生物学有关,这是一种生物科技。人们更多的只是看到计算机和人工智能,这只看到了这个技术的一半,它的另一半则与脑科学、生物学方面的知识有关系。一旦你将其与人工智能联系上,那么你将获得hack human的能力。这里允许我解释一下hack human是什么意思,其字面意思是“黑入人类”,它指的是创建一种算法,能比你自己更了解你自己,因此它能够操纵你,完善你,甚至取代你。这正是我们哲学上的信仰,也就是人类的能动性和自由意志,具体表现为“用户就是上帝”、“投票者最了解自己”等等,而一旦我们具备了这种能力,这种信仰就会四分五裂。

这种能力就一定是被用来操纵或取缔人类的?它就不能用于完善人类吗?

Yuval:它当然可以用来提高人类的能力。但问题是,谁来断定,这种强化到底是往好的方向还是往坏的方向?所以我们首先需要确定的是,我们必须回归到最传统的人类理念,“用户永远是对的”,“用户会自行决定自己的强化方向”。或者说“投票者永远是对的”,他们自己会决定政治上的决策。如果这种强化方向感觉不错,那么就继续做,我们只需要根据自己的想法去做事就好了。但如果人类被大规模地“被黑”,那么这种情况将不复存在。你甚至不敢相信自己的感觉和投票权。那些信奉自由意志的人反而最容易被操控,因为他们不认为自己会被操控。所以说我们应该如何决策自己的改进方向,这是一个非常有 的道德和哲学方面的问题——到底什么是“好”的。我们应该强化自己身上的哪些方面。如果用户不可信,投票不可信,自己的感觉也不可信,那我们该何去何从?

Yuval的公式是否成立?Yuval给我们指引的方向是否正确?

李飞飞:我非常羡慕哲学家,因为他们只需要提出问题,却不一定要回答问题。作为一个科学家及工程师,我觉得我们现在有必要解决这个危机。

为什么在20年后人工智能会演化成一场危机?

这是一项革命性的技术,它还处于萌芽阶段,相比物理学、化学、生物学,它还很不成熟。但在数据和计算机的支撑下,人工智能的确在改变人们的生活,影响深刻且广泛。为了回答这些问题,以及应对人类的危机,我们能否改变教育、研究以及与利用人工智能的方式,让它变得“以人为本”?当然我们不急着今天就找到答案,但我们可以逐渐改变人类学家、哲学家、历史学家、政治科学家、经济学家等各行各业的人来研究和推动人工智能进入新的篇章。

人们认为AI会带来很多危机,例如失业、歧视,甚至担心AI会出现自己的意识,这意味着什么?

李飞飞:任何人类创造的技术最初都是一把双刃剑。它能改善生活、工作,造福社会,但同时也会有不利的一面,人工智能也不例外。每天醒来我都要担心各种问题,包括用户的隐私、公正性,以及对劳动力市场的影响。我们必须考虑这些问题,但也正因为如此,我们要继续研究,人工智能的开发策略和互动方式也不应该局限于代码和产品,还应该考虑到人类的生存空间以及社会问题。因此我绝对同意开放对话,并针对这些问题进行研究。

Yuval:我一部分的忧虑正是源于对话。人工智能专家和哲学家、历史学家、文学评论家对话,都可以。我最害怕的是他们与生物学家交流。当他们产生共同语言,才真正有可能入侵人类的思想。人工智能将不仅仅是搜集我们的搜索关键字、购买习惯和出行信息,它还会更深入一步,直接搜集我们内心所想的数据。

AI的诞生,正是源于人工智能科学家与神经科学家的对话。AI给医疗保健行业带来了巨大的改善。机器学习帮助收集了大量的生理学和病理学数据。

Yuval:这只是其中的一部分。一门科学技术如果没有任何收益,那么它就不会有任何危险,因为就没有人去研究它。我认为AI会带来巨大的利益,尤其是当它和生物学结合在一起的时候。目前全世界的医疗水平已经达到了历史以来的新高,数十亿人只需要点一点手机就能获得便宜、可靠的服务。这也是我们无法抗拒它的原因。尽管有人认为这会引发隐私方面的问题,但在隐私和健康比起来,显然后者更重要。但我必须指出它带来的危险。特别是硅谷地区的人,已经习惯了AI带来的好处,但他们很少考虑它的危害。

如果这种事情真的发生,那么我们生活中的所有决策都将源于算法。这将产生两种形式的反乌托邦。我们所有的决策都将是由算法帮我们决定的。这不仅包括早晨吃什么、去哪里购物,还包括去哪里工作和学习、和谁约会、和谁结婚、投票给谁等。我想知道的是,人类思想中是否有什么东西是无法被机器入侵的这种技术将来作出的决策是否会优于人类。这是其中一种反乌托邦。还有则是,基于一个能监控一切的系统,我们将产生一种高度集权的政体,这类似于上个世纪出现过的集权政体,但借助生物传感器,它能全天候地监控到每一个人。

李飞飞:当你问我这个问题时,我脑海里蹦出来的第一个词是“爱”。你觉得爱也会被机器取代吗?

Yuval:这个问题得看你指的是哪一种爱。如果你指的是希腊哲学中的爱或者佛教中的爱,那么这个问题会更加复杂。如果你指的是生物学意义上的,与哺乳动物之间求偶有关的,那么我的回答是“yes”。

人类之所以是人类,那是因为我们不止会求偶,对吗?这部分也会被机器取代吗?

Yuval:我认为你在大多数科幻小说中看到过答案。当来自外星的邪恶机器人入侵地球时,人类节节败退,但最后关头人类绝地反击,反败为胜,因为机器不懂什么是爱。

李飞飞:科幻小说中通常是一个白种人拯救人类。Yuval所说的两种反乌托邦,我找不到答案。但我要强调的是,正是因此,我们现在就要寻找解决方案,现在就要寻找人类学家、社会科学家、商业巨头、公共社会和国家政府进行会谈,联手谱写人工智能的新篇章。我认为你的确引发了人们对这场潜在危机的关注。但我觉得,除了面对它,更重要的是采取行动。

Yuval:我也觉得我们应该让工程师与哲学家、历史学家进行更加密切的合作。从哲学的角度看,我认为工程师身上也存在一些很优秀的东西。工程师们少说多做。哲学家们总喜欢弄一堆稀奇古怪的比喻。所以如果工程师问哲学家“你到底想表达什么?”那么这些理论大多都站不住脚,因为他们很少能解释这些理论——我们需要的就是这种合作。

如果我们都不能解释爱,不能用代码来表达爱,那么AI可以感受它吗?

Yuval:我不认为机器能感受到爱,但如果只是为了监控、预测和操纵这种感受,那么机器也没必要感受到它。正如机器不可能喜欢玩游戏,但它就是具备这种功能。

李飞飞:个人而言,我们这段对话存在两个非常重要的前提。

第一,人工智能已经达到了一个全知全能的地步,它具备了感知能力,甚至爱的能力。但我要强调的是,这和目前的人工智能存在非常遥远的差距,这种技术还很不成熟,目前媒体对它的炒作居多,具体实施还需要很多年的努力。

第二,我们所处的这个世界将存在一个非常强大的人工智能,或者这个技术只属于少部分人,然后他们企图用它来统治全人类。但实际上,人类社会非常复杂,人类数量非常多。在历史上,我们已经见过很多科技落入少数恶棍手中,在缺少监管、协作、法律法规和道德准则的约束下,这些技术的确给人们社会带来了巨大的伤害。

但总体上看,我们的社会在朝着更好的方向发展,人们也更倾向于对话解决问题。所以我们不仅要谈论人工智能成为“人类终结者”的问题,也要谈论一些眼下更紧急的问题:多样化、隐私、劳动力、法律调整和国际政治等。

如何避免数字专政?

Yuval:关键问题就是如何管理数据的归属权。因为我们不可能停止生物学领域的研发,也不能停止研究计算机科学和人工智能。所以之前的公式中,最好控制的就是数据,但这也非常困难。目前虽然已经作出了一些举措,但要控制数据这同时涉及哲学和政治两个方面。拥有数据,以及管理数据所有权,到底是什么意思?在过去几千年里,我们已经充分理解了,什么是土地拥有权,但很少了解什么是数据拥有权,以及应该如何进行管理。但这正是我们要解决的问题。

我承认AI没有某些人想的那么强大。但我们必须把握这个度,我们不需要完全了解人类的AI,只需要它比我们更了解自己。这并不困难,因为很多人根本不了解自己,所以经常犯下决策错误,包括理财和爱情等方面。所以将这些判断题交给算法,可能仍然很糟糕,但只要比我们做的好一些,那么这种趋势仍然会存在。

将来可能会出现这种情景,你可以写出各种的算法帮助你了解自己。但如果这些算法不止把这些信息分享给你,也把它们交给广告商或者政府会怎样?我觉得我们不应该只思考太遥远、太极端的情景,而是更关注我们生活中的例子。

人工智能存在着机遇和风险,目前最重要的事情是什么?

李飞飞:我们现在有太多的事情可以做,这一点我非常同意Yuval的看法。斯坦福大学认为,未来的人工智能应该是以人为本的,我们需要坚持三个主要原则。

第一,要投资具有人类思维特征的人工智能技术。目前大多数人工智能都依赖于数据,以及对数据的管理政策,这样可以控制人工智能带来的影响。但我们应该开发一种可以解释人工智能的技术,以及能对人类智力产生更细微的理解的技术。同时还要投资那些不太依赖于数据的人工智能,它能反应人类的直觉、知识和创造性等。

第二,为人工智能的研究设立更多的准则。让经济、道德、法律、哲学、历史和认知科学等多个领域的人参与研究。任何单一领域的研究人员都不能单独解决这个问题。

最后,除了上述操作性的建议,我认为我们在做这些事情时,我们应该抱着警惕和理解,同时又要将这种技术运用到正途。

如果我们自己都不了解自己,那么计算机可能比我们更容易解释这些决策吗?

李飞飞:两位数的乘法对我们来说很难,但对计算机来说很简单。有些事情人类觉得困难的,未必难得倒机器。毕竟这些算法都是基于非常简单的数学逻辑。对此我们采用了包含数百万个节点的神经网络。诚然,决策的解释很困难,但相关研究已经在进行,一旦成功它将会带来突破性的进展。而且有了这种技术,人们就很难用人工智能去作弊。

Yuval:但是人工智能的决策逻辑可能和人类完全不同,哪怕它解释了,我们恐怕也无法理解。例如申请银行贷款被拒,人工智能可能会告诉你,这些数据有数万个来源,同时进行了加权和统计分析,某些数据的权重为什么是这么多……这完全可以写一本书。

科学越来越难向公众解释很多理论和发现,这也是为什么很多人对气候变化持怀疑态度。这不是科学家的错,而是科学技术越来越复杂,而人类社会更复杂。人类的思维无法理解它,正如它无法理解为什么要拒绝一个人的贷款申请。

我们应该如何确保数据没有种族倾向?

李飞飞:说实话我个人也回答不上这个问题,但机器学习系统存在偏见已经是个既定的事实。但这种偏见的成因非常复杂。斯坦福大学有人专门研究这个问题,如何去除数据的偏见,让决策更加中立,同时也有人类学家在谈论什么是偏见,什么是公平。什么情况下的偏见是好的,什么情况下是坏的。之前就有研究通过脸部识别算法发现好莱坞女演员的出镜率更低。

Yuval:至于是否应该剔除数据中的种族特征或是性别特征,还需要具体分析。这也是一个需要工程师和伦理学家、心理学家以及政治科学家合作的地方。将来还可能包括生物学家。这又回到了一个问题上,我们应该怎么做?也许我们应该在未来的程序员培训过程中加入伦理课程。在那些设计人工智能工具的大公司里,同样也要配备伦理专家这样的团队,他们需要考虑设计人员会在不经意间加入哪些偏见,它会给政治或文化方面带来什么样的影响。而不是等到恶果出现了,才追悔莫及。

是否存在道德和人工智能预测精准性的问题?与全力研发技术相比,边研究技术边考虑道德问题,进度是否会更慢?

Yuval:这就是一个类似军备竞赛的问题。我觉得,这是AI目前面临非常危险的一个问题。越来越多的国家意识到这种技术的重要性,都担心自己会被别的国家甩在后面。避免这种军备竞赛的唯一方法,就是进行更充分的交流。这听起来有些虚幻,因为我们现在完全是在背道而驰。我们的工作就是要让人们明白,AI的恶性竞争就类似于核战争,谁都不会成为赢家。美国人可能会说自己是好人,但这个人工智能领域的领先者,只服务于美国自己的利益,谁又能相信它的公正性?

Yuval:我认为全球合作可能非常脆弱。核武器的军备竞赛虽然会让一大批核弹问世,但是人们从没使用过它,人工智能不一样,它一直在被使用,最终孕育出一个集权政体。因此我认为它更加危险。

如果不同的国家之间存在巨大的技术差距,那会发生什么?会像19世纪工业革命那样,少数掌握工业力量的国家统治了整个世界的经济和政治?如何避免悲剧重演?哪怕没有战争,全球大多数人仍然处于被剥削状态,大部分人的劳动所得最终都属于少数几个国家。

李飞飞:不同地区的技术研究进度的确不同。不同于19世纪和20世纪,技术正在以非常快的速度全球化。任何基础性的科研论文都能在网上查到。不同国家可能因为制度不同,在技术研究上可能存在一定差距,但我认为你所描述的情况,还是很难发生的。

Yuval:我说的可不只是科研论文。是的,论文是全世界共享的,但如果我生活在也门、尼加拉瓜、印尼或者加沙,我没有数据和基础设施,我就算上网下载了论文又能如何。你要看看那些拥有所有数据的大公司来自哪里,基本只有两个地方,其中不包括欧洲,毕竟欧洲没有谷歌、亚马逊、百度或者腾讯。你再看看拉美、非洲、中东和大部分东南亚地区,他们也能学到这些知识,但想要借此对抗亚马逊还远远不够。

拥有数据和更高计算能力的人是否将获得更多的权力,收入的不平等也会因此加剧?

Yuval:正如我所说的,这很可能还只是个开始。它在经济和政治方面带来的影响将是灾难性的。那些依赖手工劳动力的国家的经济体系可能会因此崩溃,它们没有足够的教育资金去参与人工智能竞争。洪都拉斯和班加罗尔的生产基地将搬回美国和德国,因为人力成本不再重要,加州生产的衬衫可能比洪都拉斯便宜。这些国家的人又该何去何从,新生的岗位是留给软件工程师的,洪都拉斯的孩子可没有钱去学习编程。

李飞飞:的确,Yuval预想到了很多我们面临的危机,因此我们需要更多人来研究和思考这些问题。但目前全世界的国家、政府和公司都还有时间思考自己的数据及人工智能策略,意识到当下是他们的国家、地区和公司的关键时刻。而这些潜在危机正是因为他们还没意识到要跟上数字时代的潮流,也是时候引起他们的注意了。

Yuval:是的,这非常紧急。某种程度上讲,这就是一种数字殖民:从巴西、印尼等国家搜集数据,然后由美国来处理,最后生产出更好的设备和技术,卖回殖民地。尽管它和19世纪的殖民存在差别,但这种类比值得我们留意。

人们如何建设AI公司,是推动数字殖民,还是改正它?又该怎么看待人工智能,以及如何去学习?

Yuval:就我个人而言,我认为不论是否在斯坦福大学深造,是否是工程师,都一定要更加了解你自己,因为你正处于一场竞争中。这也是所有哲学书中最经典的建议。苏格拉底、孔夫子、释迦摩尼都给出过类似的看法。但在释迦摩尼或苏格拉底的时代,你不了解自己也没关系,你只是错过了顿悟的机会。如今你们处于竞争中,如果不了解自己,你就完了。对于工程师或学生,我希望实验室和工程部门出现两件东西。第一,我希望出现一种离心化的系统,而不是中心化的系统,我不知道该怎么做,但我希望你们可以尝试,我听说区块链在这方面挺有潜力的。这是对我们民主制度的保护。

第二,我希望出现一种专门为人服务的工具,而不是为企业或者政府服务。也许我们无法阻止人工智能了解自己,那么我希望它了解我们是为了保护我们不受其它人工智能的侵袭。就像我的身体不能对抗电脑病毒,但是我的电脑可以装杀毒软件。(来源:猎云网)


企业会员

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。

2019-05-06
李飞飞论战赫拉利:AI之战一旦爆发,或将碾压核竞赛
AI眼里的爱情,和一场流感有什么区别?

长按扫码 阅读全文

Baidu
map