AI能说和听,这事儿大伙都知道。比如足够普及的智能音箱和手机里的语音助手、语音输入法。
而在感知智能这个大方向里,AI当然不只能说,同时还能看——比如说在张学友演唱会上抓个逃犯啥的。但AI的“看”不仅是识别人脸,同时也可以认识和判断物体。比如谷歌的猜画小程序就是依靠AI识物来实现的。
但这个领域,似乎还没有找到太多商业化的办法。人脸识别可以进行大规模安防应用,但AI识物在今天的更多应用展示,还是停留在游戏与炫技的层面。
有没有办法让AI识物的能力从“闹着玩”,变成“能赚钱”?
国内外各种AI势力正在努力破解这个问题。理想总归是美好的,而现实是缓慢掺杂着残酷。
AI之眼,似乎还没有给商业世界带来足够的魅惑。
Google Lens:下一个时代还是又一块鸡肋?
普通人能够应用的AI识物最主要还是集成在手机摄像头当中。当用户把摄像头对准想要识别的各种东西,AI系统就会通过图像识别以及OCR技术,给出相应的结果。
听起来还是蛮带感的。
目前这个领域探索幅度最大的则是AI巨头谷歌。在2017年I/O大会上,谷歌发布了集成在Google Photos里的Google Lens功能。通过这个功能,手机用户可以将摄像头对准各种各样的东西,然后让AI开口说话,告诉你ta看见了什么。
确切来说,Lens的很多功能还是相当实用的。比如当旅行者面对一个不知名的文物古迹,可以用Google Lens 来获知相关的历史以及文化知识;对准一瓶葡萄酒,AI可以告诉你这瓶酒的各种信息,比如年份、品饮方式、价格等等;在异国他乡拍摄交通指示牌,AI会借助谷歌翻译的力量把这些信息翻译出来。
谷歌没有公布Lens到底能识别多少东西,但就目前情况来看,其可识别种类已经相当多。在今年的I/O大会上,该功能还被进一步升级,可以用来拍照识别文字信息、推荐穿搭风格,甚至还能识别海报给出的艺人资料与作品。
从一年的发展来看,谷歌对于Lens的期待很大,不仅升级了它的产品地位,还不断激发新功能,并建立与谷歌其它AI应用的联系。
虽然看似无所不能,但什么都能识别的Lens也有软肋:Lens的真实工作流程是将识别物体与数据库进行匹配。换言之数据库的大小直接影响着Lens的使用体验。而其技术本身的创造力则乏善可陈。比如吴恩达去年就无情嘲笑过:Lens的识花功能其实早就是百度玩剩下的。
目前来看,Lens在真实生活中还是“偶尔惊艳、日常痴呆”。当然对于中国消费者的不便就更多了,比如Lens目前并不支持中文。
但是AI识物这条路却是兵家必争之地,微软就不断宣称Bing搜索中的拍照搜索一点也不比Lens差。
可无论是谷歌还是微软,都无法解决AI识图搜索的根本问题:用户打开率低,商业化程度较差。
12下一页>(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )