原标题:你如果想打我,AI可不一定答应
文|柯鸣
来源|智能相对论(aixdlun)
如果有一天,你想打我(贱兮兮),你以为一拳头挥过来就完事了吗?
现在可不那么简单了。现在你如果想要打我,不仅要问问我爸妈同不同意,还得问问AI答不答应,可能你还没动手,就已经被我的AI所拦截下来了。
没错,“暴力检测”成为了当下的一个热门。在人群中实时检测“暴力行为”成为了现实,如果你想打架,最好先看看AI同不同意。
“检测暴力”的AI
这种能够检测“暴力行为”的AI系统由英国剑桥大学、印度国家技术研究院和印度科学理工学院的研究人员研发,此类AI技术利用悬停式四轴飞行器上的摄像头来检测每个人的身体动作。然后,当系统识别出攻击性的行为,如拳打、脚踢、刺杀、射击、掐脖子等时,它就会发出警报,准确率达到85%。它不识别人脸——只是监测人们之间可能的暴力行为。
借由无人机实现AI“暴力检测”
这个系统可以扩展到自动识别非法越境的人,在公共场所发现绑架事件,并在发现暴力行为时发出警报。因此,在某种程度上,这种自主间谍无人机可以帮助警察压制犯罪,或帮助士兵在无辜群众中找出敌人。
AI在检测暴力动作时,主要分为五个类型:扼杀、拳打、踢踹、枪击,以及刺伤。系统先用FPN(特征金字塔网络)检测在场的所有人类,并标记出头、上肢、下肢三个部分的14个重要位点,画出人体的骨架。然后,SHDL网络可以分析四肢朝向等数据,判断那些人是不是在使用暴力。
可用于检测公共区域或大型聚会中的暴力分子姿态估计pipeline
当然,AI暴力检测的效果也与数据处理人数有着很大关系。一般来说,系统需要处理的人数更少时,准确率会更高。如只需处理一人时,系统准确率可以达到94.1%,如果人数超过了十人,准确率下降到仅79.8%。同样,其在检测扼杀、拳打、踢踹、枪击,以及刺伤五种暴力行为时,也存在着准确率差异。
检测不同暴力行为的准确率
检测不同人数时的准确率
另一方面,无人机的应用也存在着一定的使用条件限制问题。在真正应用场景中,无人机无法直接靠近斗殴人群,只能实行高空检测,而这一定程度上降低了能见度和检测准确度。
AI检测暴力,依然存在着众多问题
AI检测在人工智能领域早已经不是新鲜事。不论是此前的Dextro公司利用机器学习来解读视频的声音和图象信息,还是谷歌解决鸡尾酒会问题,并成功推出新一代Google Assistance,AI检测一直是各领域应用的重要方式。
在云端执行推理有潜在的安全和隐私风险,因为要将人们的视频传输到第三方计算系统中。当AI渗入日常生活的监测过程之中,智能相对论(aixdlun)分析师柯鸣认为,其依然就几个问题“有待解决”。
1.泛滥的用户信息泄露
2017年,是数据泄露极为猖獗的一年。根据金雅拓(Gemalto)近期发布的一份报告“2017 Poor International Security Practices Take a Toll”显示,2017年仅上半年被盗的数据,就已超过2016年全年被盗数据的总量。
2017年1月到6月,平均每天有1050万条记录被盗。尽管很多数据泄露来自于外部黑客攻击所致,但所造成的记录被盗或遗失,仅占13%;相比之下,内部恶意泄露、员工疏忽无意泄露等造成的却占19亿被盗数据中的86%。
早在此前的Cambridge Analytica丑闻造成了8700万人的信息泄露,并且对2016年唐纳德·特朗普参与美国总统竞选的结果造成了影响。Facebook数据泄露事件再次向人们展现了信息泄露的危害,“被行为”或是“诱导行为”成为许多数据公司利用用户信息进行的不良操作。
可想而知,如果当AI监测暴力系统被恶意使用,其带来的风险更是相当严重。诸如此类的面部识别技术,如亚马逊的Rekognition服务,已经被美国警方采用。这些系统经常受到高误报率的困扰,或者根本就不准确,所以像这样的技术要和无人机结合还需要一段时间。
2.“大数据杀熟”
从目前众多AI应用的表现来看,隐私数据的泄露所导致的“大数据杀熟”是一个不容忽视的问题。
信息泄露不仅会威胁到一个普通用户的网络账户安全,更会直接影响到其现实生活中的方方面面。最近闹得沸沸扬扬的Facebook用户数据泄露更是让全球用户纷纷自危,不少知名人士更是宣布从Facebook退出,扬言保护自身隐私数据安全。
在前段时间,滴滴被曝光对用户进行大数据杀熟,一时之间舆论纷纷,显然被人区别对待的感受不是每个人都喜欢,尤其是在加价的情况下。虽然之后滴滴很快对其进行了澄清,但大数据杀熟这种方式却已经被世人获知。
那么什么是大数据杀熟,通常而言,这种行为指的是通过大数据来判断用户消费潜力,当判断用户为高消费者时,则会对用户进行区别对待,提高其消费价格,比其他用户花费更多资金才能享受到相同的商品及服务。
互联网上的杀熟早就不是什么新鲜的事情,自互联网诞生以来,这种行为便一直存在。而在2000年,也发生了一件令人瞩目的杀熟事件。有亚马逊用户反映,在其删除浏览器cookies之后,之前浏览过的DVD商品售价从26.24美元降至22.74美元。
此消息一出,备受舆论压力的亚马逊只能出来解释,称这项功能只是向不同顾客展示的差别定价实验,绝对与客户数据没有关系。最后也只能努力公关,才度过了这个信任危机。如今的一些互联网公司,显然已经忘记了亚马逊当年的遭遇,试图重蹈覆辙。
3.AI监测恐侵犯主体的“知情权”
在AI监测的过程中,“知情”确实成为了一个伦理争论的焦点。“如何监测”、“是否知情”争议不断。诚然,随着行为识别技术的不断发展,许多识别技术都可以实现“非受控性”:即主体无需配合,依然可以实现精准识别。
这无疑将AI伦理提到了一个新的高度。信息不再为我所有,确实让人细思极恐。那么,在公安与刑侦领域,AI监测尚可让人信服,但在其他民用甚至是商用领域,如何平衡好“获取信息”与保障和满足受众基本的知情权将会成为一个重点和难点。
显然,许多大公司在此类“获取信息”与“保障隐私”两者中积极寻求平衡。Facebook首席运营官雪莉·桑德伯格(Sheryl Sandberg)宣布为了响应欧盟即将于五月份生效的新隐私法规,Facebook将让其20亿用户更容易地管理自己的个人数据。
在欧盟,将于今年五月份实施的《通用数据保护条例》(General Data Protection Regulation,GDPR)是自互联网诞生以来对个人隐私数据法规的最大一次修订。该条例旨在给予欧盟成员国内居民更多管理自身信息的权限,并规定了公司使用用户数据的方法。
总的来说,AI监测暴力的出现,为安防与刑侦领域提供了一个便捷之道。但是,作为极为敏感的领域,精确性的问题依然是不可忽视的。毕竟,冤枉一个好人永远都不是一件好事。
智能相对论(微信id:aixdlun):深挖人工智能这口井,评出咸淡,讲出黑白,道出深浅。重点关注领域:AI+医疗、机器人、智能驾驶、AI+硬件、物联网、AI+金融、AI+安全、AR/VR、开发者以及背后的芯片、算法、人机交互等。
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。