ThoughtWorks技术雷达指出提升机器学习透明度迫在眉睫

数据科学家建议将可解释性作为机器学习模型的关键选择标准

2019年11月20日,芝加哥

全球软件咨询公司ThoughtWorks于今日发布了第21期技术雷达,这是每半年更新一期的技术趋势报告,来自ThoughtWorks在大量客户中的实践观察。最新期技术雷达重点阐释了What-If等新兴工具,以及道德偏见测试等技术如何使机器学习(ML)更加清晰易懂,为什么我们应当将软件开发视为一项团队运动,如何应对竞争日益激烈的云市场以及驱动治理即代码的变革。

ThoughtWorks全球首席技术官Rebecca Parsons提到,“机器学习的可解释性是本期技术雷达最重要的主题之一。机器学习工具被用于做出许多生命攸关的决策,但是这其中的技术模型却并不透明,因此人们并不知道这些决策的依据是什么,这是有问题的。 同样,如果对机器的训练不够开放透明,存在将偏见、抽样、算法或其他偏差引入模型的风险。为减少这类风险,ThoughtWorks认为机器学习领域的业务、技术决策者应当有意识的增加开发团队的多样性,并使用可以减少算法偏差的工具。

在第二十一期技术雷达中同样值得关注的几个主题包括:

● 打开机器学习的黑匣子:机器学习正在应用于更多决策,但是其计算模型仍然难以理解。 引入工具以提高透明度,并组建一支多元化的开发团队,这对于打开机器学习的黑匣子至关重要。

● 软件开发是一项团队运动:在软件开发中,将团队成员彼此隔离的工具和技术会阻碍反馈和协作。 与其执着于像“ 10倍工程师”这样的个人主义,不如将不同的专业人才放到协作和跨功能的“10倍团队”当中。

● 云,多即是少:在主流云服务提供商提供的核心功能日益趋同的当下,竞争焦点已经转移到他们能够提供的附加服务上,这就鼓励了云服务商以惊人的速度发布新产品。为在竞争中取得优势,很多新服务还在存有瑕疵、功能尚不完整的阶段,就被匆匆推向市场,所以不要指望所有的云服务都有相同的高品质。

● 保护软件供应链:组织应该抵制冗长的人工检测和需要审批的象牙塔治理规则。相反,自动化的依赖保护、安全性和其他治理机制可以保护软件项目中重要但不紧急的部分。

ThoughtWorks技术雷达每半年发布一次,与此同时,ThoughtWorks 鼓励其他组织依据雷达思想来绘制自己的技术图谱。

保时捷云应用IT架构师Thomas Spillecke在使用雷达辅助技术决策时也提到:“通过对每期技术雷达的讨论,我们收获了很多宝贵的信息,有效避免了一些无用的尝试。”

浏览技术雷达官方页面 ThoughtWorks.com/radar/cn 可获取更多信息,并在线下载PDF。

关于ThoughtWorks:

AboutThoughtWorks

我们是一家软件咨询公司,同时也是由一个个目标明确、极具热情的个体组成的社区。我们有7000多名员工分布在世界上14个国家的43间办公室。在过去25年的历史中,我们帮助客户解决了极端复杂的业务、技术难题,并时刻准备与客户一起拥抱变化。


企业会员

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。

2019-11-20
ThoughtWorks技术雷达指出提升机器学习透明度迫在眉睫
数据科学家建议将可解释性作为机器学习模型的关键选择标准2019年11月20日,芝加哥全球软件咨询公司ThoughtWorks于今日发布了第21期技术雷达,这是每

长按扫码 阅读全文

Baidu
map