中国一个研究小组正在准备推出一个旨在实时捕捉幼儿园虐童行为的原型人工智能系统。
这项研究已经进行了好几年了,但是最近在北京红黄蓝教育新世界幼儿园被指控虐待的事件引起了人们的兴趣,这个幼儿园是美国上市集团旗下高端连锁店的一部分。
中国的大多数幼儿园都在教室安装了监控摄像头,但是很多监控摄像头没有得到积极的监控。研究人员说,他们的人工智能算法可以分析一个实时视频流来跟踪每个学生和老师的动作。
当发现异常行为(如扎针或打耳光)时,电脑可以发送警报给幼儿园的管理人员,政府监管人员或家长,并带有视频短片进行评估。
研究人员正在对该技术进行广泛的测试,并预计明年完成原型。
贵阳的贵州民族大学计算机科学系副教授Rao Yan是该项目的首席科学家,表示自从2013年开始研究以来,她的团队遇到了技术障碍和资金短缺问题。
Rao表示:“研究‘小领域’导致吸引资金和引起注意力不足。”
尽管中国近年来在人工智能方面投入了大量资金,但大多数视频分析系统目前正用于国家安全,包括国防和反恐怖活动。
但是,作为一个年幼孩子的母亲,Rao说,她觉得有义务找到一个技术来解决虐待儿童的威胁。
她说,“这不仅仅是为了我的小孩。我们正在全国各地发现这些问题。”
在中国,许多幼儿园教师年轻而且收入不足,有些教师缺乏足够的培训。
对红黄蓝的调查仅仅是在最近几年一些幼儿园虐待案件之一 ,其中一些已经被监控摄像机捕捉到,已引发了家长们的安全担忧,并促使国务院推出幼儿园的全国性检查。
Rao和她的同事开始他们的研究,认为这将是一件容易的工作。有很多算法来检测暴力,异常或“疯狂”的行为。但是他们很快发现现有的方法只适用于成年人。
“老师大,学生小。电脑在处理视频时很容易漏掉小孩。”Rao说。
孩子的行为也给机器造成了很大的困惑。他们可能会在椅子上跳起来,用手中的玩具枪追逐对方,或者长时间坐在角落里玩沙子。
所有这些活动对于成年人来说都是不寻常的,但是对于儿童来说是正常的,因此使用为成年人开发的AI工具来监控他们会不断触发警报。
所以Rao在幼儿园设置了一个新的机器学习算法。该团队从学前班收集了大量的监控录像,并将这些数据输入电脑。开始时,研究人员不得不告诉机器哪种行为是正确的,哪个是错误的,但后来电脑学会了正确评估镜头,几乎没有人为干预。
研究人员正在对来自幼儿园的最新视频进行测试,他们希望明年能够公开展示这项技术。
但Rao表示,这个系统还有很大的改进空间。
“这远非完美。 我希望更多的研究人员可以加入这项工作,加速人工智能技术在打击虐待儿童方面的应用。”
清华大学电子工程系教授Zhang Li表示,他们和中国其他顶尖的人工智能实验室可以很快分配资源来处理虐待儿童的问题。
Zhang表示,国内许多机场、火车站和公共场所已经在使用这项技术与面部识别等方法一起来检测相关的异常行为。
但是,为了使这项技术能够用于幼儿园,研究人员需要获得大量的数据,这可能是个问题。
“有些幼儿园可能不愿意分享,因为这些视频可能包含敏感信息。 一些家长也可能有隐私问题。” Zhang说。
北京中国科学院模式识别国家重点实验室研究员Huang Kaiqi表示,计算机可以通过追踪人体图像中的每个像素来追踪移动或手势,从而可以检测出儿童的微妙行为,例如针扎处罚。
“虐待通常涉及一系列的行为。这些行动可以形成一个模式,这样机器就可以学习和识别。”他说。
Huang还表示,还可以使用声音和热感应等其他检测方法收集更多信息,以便行为跟踪系统能够做出更准确的判断。
例如,如果孩子在教师采取某种行动后反复哭泣,系统可能会发出警报。
负责全国监视和报警系统的北京公安部高级警官表示,将考虑在包括幼儿园在内的学校增设人工智能。
据官方人士透露,北京在2012年颁布了一项规定,要求所有学校都安装安全摄像头,但许多系统没有专门的人员进行监控,而镜头通常只是为了记录被保存起来。
他说:“人工智能拥有一双永不眨眼的眼睛,一个永不疲倦的眼睛。”
但他补充说,单靠技术无法解决问题 - 滥用仍然可能发生在安全摄像机的范围之外。
他说:“没有任何技术可以完全保护我们的孩子。”
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )