人工智能偏见如何避免?专家建言设立第三方监督机构

随着人工智能的发展,人类正在把更多决策权交给计算机。问题在于,这些算法并不是透明的,而是掌握在少数科技公司手里。出于商业竞争需求,它们很少透漏决策背后的细节。为此,计算机专家们建议,应当设立第三方的监督机构,以避免算法自身的一些偏见。

据卫报的报道,在一份新报告中,伦敦图灵研究所与牛津大学的研究团队提出了上述想法。他们认为,当人们觉得自己遭到不公正待遇后,第三方机构应该调查人工智能做出的决策。“我们希望看到一个可信任的第三方机构。它应该有检查和监督算法的权力,能够了解算法是否真的透明和公正。” 研究人员 Sandra Wachter 说。

(图片来自singularityhub)

2018 年,欧盟成员国将采用一项新法案,以监督人工智能系统的应用。不过,研究人员认为,这项法案的实际作用是值得怀疑的。“有人觉得,这项法案能够让人工智能系统更加透明,但是,这并一定能实现。一切都取决于欧盟成员国法庭的解释,” 另一位研究人员 Mittelstadt 说。

不过,即使第三方机构已经设立,对算法的监督并非一件易事。“监督机构需要如何具备何种能力?我们并不知道完整的答案。因为,人工智能系统是难以预测、不断变化而且难以理解的。开发团队也未必能完全理解。” Mittelstadt 说。另外,科技公司可能会抗议,因为现代的人工智能技术是“难以理解”的,例如 学习。

(图片来自phdmedia)

西英格兰大学的机器人道德学教授 Alan Winfield 正在主导人工智能行业标准的起草工作,目的是让人工智能系统更加透明,更加容易追责。“监督机构是个非常好的建议,”他说,“这不是一个未来问题,而是一个现实问题。”

但是,他认为科技公司也未必能解释人工智能的决策。那些基于 学习的算法很不透明,基本上不可能解释其作出某项决策的原因何在。“我向科技公司——比如 Google 的 DeepMind——提出的挑战是,发明一套可以自我解释的 学习系统,” Winfield 说,“那不是件容易的事情,不过,研究这些系统的都是些非常聪明的家伙啊。


企业会员

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。

2017-02-04
人工智能偏见如何避免?专家建言设立第三方监督机构
随着人工智能的发展,人类正在把更多决策权交给计算机。问题在于,这些算法并不是透明的,而是掌握在少数科技公司手里。出于商业竞争需求,它们很少透漏决策背后的细节。为

长按扫码 阅读全文

Baidu
map