credit:123RF
因为电脑没有像人类一样的共情能力和情切感,人类当然不会打心底里觉得电脑有意思。实际上,当我们允许电脑参与协商和博弈的时候,人工智能会展现出近乎反社会的谈判技巧。如果我们允许的话,AI会选择直接对人类撒谎。
让人工智能更像人
随着人工智能领域不断发展,AI 似乎可以学习做任何事情,从面部识别到帮助医生做诊断。这项技术已经证明了自己在处理数据和解决特定问题的能力。不过工程师还有一大困难没有攻克,就是教会 AI 社交,例如一些社交技巧和「读空气」的能力,以及合作的能力。
脸书的人工智能研究部门 (FAIR) 现在正在研发一款拥有基本社交技巧的 AI 谈判器人。这个机器人的程序能够在协商和谈判中寻求双赢。基本的理念就是,机器人一定要理解,只有让对方同意自己才算成功。(即使对方也是机器人。)
语言的博弈
你会怎么让 AI 学会谈判?FAIR 先让机器人学会给不同的东西「标价」。例如,一个帽子值7分,一个球值3分。现在 AI 还得明白,对方对这些东西的「标价」和自己不一样。最后,就要测试,两个机器人在一起谈判,怎么在一系列磋商中,让自己尽可能的拿到更多积分。
这就有点意思了。这些 AI 在测试开始之前没有学会任何谈判策略,只知道自己要「从经验中学习,提前计划,」所以所有的策略都是他们自学的。随着这些机器人越来越聪明,他们也习得了几个技巧:
死皮赖脸:新机器人没有什么技巧,通常会和人类对手死磕,把谈判时间拉长。在这种策略之下,人类可能会受不了,但机器人只要有电就能一直耗下去。
声东击西:AI 有时像一个玩扑克牌的人,它们会假装对一个低价值的东西感兴趣,并向对方做出「妥协」。研究人员并没有把这种策略写进程序里,是它们自己想出来的。
举一反三:有的 AI 在程序里设定了一套谈判话术,不过机器人会根据这些已有的话术推出更多的话术。
本文译自 curiosity,由译者 Dkphhh 基于创作共用协议(BY-NC)发布。
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )