高层速读
1.关键事件:IBM Watson的首席技术官Rob High接受采访,谈到当前人工智能发展存在的问题与挑战;
2.关键信息:
1.目前机器学习中最大的技术挑战就是如何使用较少的数据来训练模型,Rob High相信这可能实现;
2.要实现更好的人机互动,机器要做的不止于完成语言对话;
3.当前正在使用的许多机器学习模型都因为它们使用的训练数据而形成本质上的偏见。
在巴塞罗那举行的2018MWC世界移动大会上,IBM Watson*的首席技术官 Rob High接受采访时,谈到了当前机器学习面临的三个问题与挑战。
IBM Watson:认知计算系统的杰出代表,也是一个技术平台。认知计算代表一种全新的计算模式,它包含信息分析,自然语言处理和机器学习领域的大量技术创新,能够助力决策者从大量非结构化数据中揭示非凡的洞察。
一.用更少的数据训练模型
对于Rob High来说,目前机器学习中最大的技术挑战就是如何使用较少的数据来训练模型。“这是一个挑战,一个目标,而且我们肯定有理由相信这可能实现。”
通常,机器学习模型需要在大量数据上进行训练,以确保它们是准确的,但是对于许多问题来说,大型数据集根本不存在。
然而,High认为大型数据集的问题是可以解决的。为什么呢?“因为人类就是这么做的。我们有一个数据点(data point)。“他说,“要知道,即使某件人类正在做的事情已经被证明,你也必须认识到,这不仅仅是某个部分,不仅仅是某个时间段告诉人们人类如何学习,是这整个文本提供了很多有价值的东西。对于High而言,正是这种文本,才使得用更少数据培训模型,以及迁移学习方面的最新进展成为可能。也就是说,采用一种经过训练的模型,然后靠其数据来启动另一个可以有更少训练数据的模型。
▲Rob High
二.真正理解人类互动
人工智能(尤其是对话型人工智能)的挑战却不止于此。“另一方面,我们一直在试图弄明白机器如何才能更好地与人类互动,以一种自然的,并且能对他们的思维产生影响的方式。”High说,“人类互动不仅受语言对话影响,对语音语调、韵律、表情、手势等的感知也有影响作用。High认为人工智能不是一定要以拟人化形式模仿人类互动,但也许需要其他形式,比如一种视觉提示装置。
同时,大多数人工智能系统还需要更好地理解一个问题的意图,以及这个意图如何与先前某个问题相联系,以及他们当时的心理和性格状态。
三.模型中的偏见
不过这也引出了另一个问题。目前正在使用的许多机器学习模型都因为它们使用的训练数据而形成本质上的偏见。比如,如果你是白人男性,那么一个给定的模型将会运行得很好;但是,如果你是黑人女性,这个模型可能就不适用了。“首先,我认为这个问题有两个方面。其一是,数据集可能存在总体偏差,我们必须对此敏感;这也迫使我们考虑一些其他数据,从而在文化和人口统计学方面,拓宽其能代表的人。但是,另一方面,你实际上希望这种系统中的总体偏差能够跨越个人偏见。
例如,High引用IBM与斯隆凯特琳癌症中心[点击了解相关信息]合作的例子。IBM与其这家医院的一些顶级癌症外科医生进行合作,并以此为基础,训练了一个模型。“但是斯隆·凯特琳有一个关于如何制药的特殊价值体系。因此这种价值体系嵌入在他们的偏见中。这是他们的制度偏见,是他们的品牌…并且任何即将被用于斯隆·凯特琳之外的系统都需要推进同样的价值体系。
“要确保这些东西的偏向正确,既要确保提交给正确的人,还要确保这些人代表能更广泛文化。”High表示现在定期地与IBM的客户一起进行这样的讨论,在一个仍然经常忽略这些话题行业里,这是一个积极迹象。
微信搜索【AI商业报道】,获取最新行业资讯!
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。