人工智能——即AI已经变得越来越聪明,甚至能够预测未来。比如警察可以用AI来提前预判出犯罪的时间或地点,医生可以用AI预测病人最有可能心脏病发作或是中风。甚至研究人员还试图为AI添加上更多的想象力,因为其能够规划出人类所预想不到的结果。
通常来说,在大众的生活中很多决策都需要事先进行一定的预判。不过随着AI的进步,其预测比人类更加优秀。然而,随着AI技术的进步,我们似乎仍然缺乏对AI的信心。最近就有研究表明,人们不喜欢依赖AI,更愿意去相信人类专家——即使某些专家是错误的。
你相信AI吗?
IBM的超级计算机项目Watson给出的癌症治疗方案,大部分时候与医生的建议十分吻合。在印度进行的一项研究显示,在治疗肺癌时Watson给出的治疗建议96%的情况下与医生的方案相吻合;治疗直肠癌和结肠癌时,与医生建议的吻合率也分别高达93%和81%。而且,Watson在临床试验中筛选乳腺癌和肺癌患者的速度要比人类快78%。截至目前,超过14000名患者根据其计算已收到相关的治疗意见。
但是当医生与Watson互动时,他们发现自己处于相当复杂的局面。一方面,Watson给治疗提供了指导,但其实医生并没有看到有多大价值。因为Watson做出的这些指导,医生也早就知道。另一方面,如果Watson产生出反驳专家的意见建议,那么医生通常会得出结论——Watson是不能胜任的。因为Watson无法解释为什么它的治疗是可行的,它的机器学习算法是不被充分理解的,进而造成了更多的不信任和怀疑。最终,导致很多医生忽视了AI建议,并坚持自己的专长。
沃森所面对的问题是,医生根本不信任它。人类的信任往往是基于对可靠性经验的理解,有助于创造安全的心理感受。而AI是全新的事物,绝大多数人都对其不熟悉。因此,即使可以在技术上解释(而这并非也总是如此),AI的决策过程通常还是让大多数人无法理解。不了解的后果就是会导致焦虑,使人类觉得自己正在失去控制力。
社会上有一个新的AI分歧?
如果我们希望AI能够真正造福于民,就需要找到一种方式来让AI获得人们的信任。当然,要做到这一点,首先要清楚目前人们对AI到底有着怎样的态度。面对逐渐有望落地的AI,似乎在社会上也有了分歧。
有外国专家在向不同的人播放AI相关科幻片后,就向他们询问有关人工智能、自动化等问题。他们发现,乐观主义者更倾向于积极地拥抱AI。而怀疑者则变得更加极端,甚至变得更加谨慎,不欢迎AI的到来。
这表明,人们对AI的偏见是一个根深蒂固的个人倾向。由于参与报道AI的媒体越来越多,正反意见也在博弈之中,进而就会直接影响人们对AI的认知。一部分人会认为AI将让生活更美好,另一部分人则认为AI会让社会走向灭亡——这样的分歧将会越来越严重。
解决AI“信任危机”就要保持透明度
但不管怎么说,AI始终还是要向前发展的。而要解决AI的“信任危机”,就必须从多方面着手。目前,部分专家已经有了提高人们对AI信任度的方法。最基本的,就是要尽快习惯AI未来出现在我们的生活中——使用的越多,就会越信任AI。就像当年互联网出现之后,很多人也持怀疑态度。但随着互联网全面落地之后,人们就对其完全没有戒心了。
另一种解决方案则是打开机器学习算法的“黑盒子”,让其更加透明,展示出AI是如何工作的。这样一来,能够让帮助人们对其有更好地了解。虽然绝大多数人不需要了解AI系统复杂的内部运作,但如果展示出较为关键的运作信息,人们会对接受AI融入生活持更加开放的态度。
不是我们不愿意相信AI,只是对新生事物的一种本能“恐惧”罢了——就像原始部落的人还认为照相机能吸走“灵魂”一样。当AI逐步普及后,对它的质疑自然也就越来越少。(科技新发现 康斯坦丁/文)
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。