机器人怎么更懂人类?谷歌:看这五万多个视频!

机器人怎么更懂人类?谷歌:看这五万多个视频!

【网易智能讯 10月26日消息】机器人正在看着我们,谷歌在YouTube上发布了一组视频,帮助机器了解人类如何在这个世界上生存。

“原子视觉动作”(AVA)是人们从事日常活动的三秒钟视频,比如喝水、拍照、演奏乐器、拥抱、站立或烹饪等。每段视频都标明了人工智能应该关注的人,以及他们的姿势描述,还有他们是否与某个物体或其他人进行互动。

谷歌最近在一篇博客文章中描述了这个新的数据集,称:“尽管过去几年在图像分类和寻找物体方面取得了令人激动的突破,但认识人类行为仍然是一个巨大的挑战。这是因为,从本质上讲,动作比视频中的物体更不明确。”

57600个视频片段只强调了80个动作,但却需要给超过96000人贴上标签。谷歌从流行电影中截取部分片段,强调它们来自“不同的流派和国家”。如果一段视频中有两个人,每个人都被分别标记,这样机器就可以知道,两个人需要互相握手,或者有时人们在拥抱时接吻。

这项技术将帮助谷歌分析多年的视频,还能帮助广告商更好地瞄准消费者,因为他们更有可能观看视频。一篇附带的研究论文称,谷歌的最终目标是教计算机社交视觉智能,即“理解人类在做什么,下一步该做什么,以及他们想要达到什么目标。”


企业会员

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。

2017-10-26
机器人怎么更懂人类?谷歌:看这五万多个视频!
机器人正在看着我们,谷歌在YouTube上发布了一组视频,帮助机器了解人类如何在这个世界上生存。“原子视觉动作”(AVA)是人们从事日常活动的三秒钟视频,比如喝

长按扫码 阅读全文

Baidu
map