近日,在美国华盛顿特区的一次研讨会上,美国国防部高级研究计划局(DARPA)宣布,计划在未来五年内,投资20亿美元用于人工智能的研究。
在一个名为“AI Next”的计划中,该机构目前有超过20个项目正在进行中。这些项目的研究重点包括提高机器学习和人工智能技术的安全性和弹性,提高电力、数据和性能方面的效率,并探索这些系统的“可解释性”。
“机器缺乏上下文推理能力,它们的训练必须涵盖所有可能发生的情况,这样不仅成本高昂,而且几乎不可能完成。”项目主管Steven Walker博士说,“我们希望探索机器如何以类似人类的沟通和推理能力,来识别新情况和环境,并以此适应它们。”
人工智能是一个广义术语,它涵盖了从检索能力到机器学习的所有内容,而且所有的定义都严重依赖于消耗数据来告知算法和“学习”。DARPA在这一领域有着悠久的研发历史,但最近它的研发成果已被中国等外国强国超越。今年夏天早些时候,中国宣布计划到2030年成为人工智能领域的领军者。
在许多情况下,这些人工智能仍处于起步阶段,但这项技术——尤其是机器学习——不仅有可能彻底改变用户与技术的交互方式,还可能彻底改变企业和政府机构利用这种技术与员工和公民进行交互的方式。
机器学习有一个特点,在学习时,会将学习数据里的偏差纳入人工智能系统。如果数据中包含漏洞或错误信息,机器可能得出错误的结论,例如:哪类人“更有可能”犯罪,这类错误的结论可能会产生非常严重的后果。更可怕的是,即使机器产生了偏差,由于人工智能类似于“黑盒子”的原理构造,我们没有办法搞清楚它们是否有偏差、产生了哪些偏差以及为什么产生偏差。
换句话说,即使是设计算法的研究人员,也不太了解机器如何得出它们的结论。
也就是说,人工智能存在危险性。但是,如果开发者足够谨小慎微,人工智能研究也可以成为创新和进步的源泉。随着DARPA的研究不断向前推进,我们将会看到他们如何处理这些重要问题。这些问题已经不仅仅是技术问题,更是关系到每个人的社会问题。
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )