当课堂因监控技术变“囚笼”,存在争议的AI使用场景该被抵制吗?

原标题:当课堂因监控技术变“囚笼”,存在争议的AI使用场景该被抵制吗?

当马云和马斯克高谈阔论AI是否会影响人类社会时,尚无“感情”的AI已在校园中“作恶”。近日,一张AI监控课堂的GIF在网上迅速刷屏。这张GIF中记录了课堂中所有学生任一举动,都被AI录制下来并进行完整的数据分析。在这一AI场景中,课堂因监控技术变为“囚笼”,并引发了一场关于道德、人道等方面的争议。

AI监控课堂,“安全”成作恶借口

小明上课表现:趴桌子3次,睡觉1次,听讲1次,阅读0次,举手0次,笑了0次,厌恶表情出现10次……当这些多达十几项的数据指标综合起来,可能会让老师下一个判断:张小明是个不知上进的“落后生”。这不是发生在热门美剧《黑镜》中AI监控人类的科幻桥段,而是以目前AI技术所构建的一个“恐怖”场景。

据了解,研发这一课堂监控系统的是,号称“AI第一股”的旷视科技。在旷视科技的描述中,这一系统看起来颇为高大上——“旷视科技将自主研发的人脸识别、行为识别、表情识别等技术,集成在考勤及行为分析摄像机MegEye-C3V-920和行为分析服务器中,通过对课堂视频数据进行实时的结构化分析,反馈学生行为、表情、专注度、前排上座率等多维度课堂数据。”

以安全之名行“监控”之实,让青少年在AI场景中被禁锢地像一只只“小绵羊”,神经随时绷紧。这将会对青少年的心理健康成长,造成多大的伤害?的确,这只是一个技术场景概念演示,但一旦技术成熟并落地,影响的将是数代年轻人!

抵制争议场景,只为避免滑向深渊

旷视科技的所作所为,正在偏离自己的初衷。旷视科技的初衷之一,是重视AI研发和应用对隐私权、伦理价值观等带来的挑战。但这一课堂监控系统的出现,显然突破了AI使用场景的底线,并饱受大众诟病。

而在知乎上,“如何看待旷视科技新产品监视学生上课?”这个问题受到关注。其中获得2000+赞的回答中提到,“这不是产品经理或者程序员的问题,不是一家公司的问题,甚至不是一个技术问题。这是我们社会的价值观的问题,是我们怎么看待自身权益的问题。”这段话,或许能够给大众带来更多思考。

我们现在所能做的,就是坚决抵制课堂监控系统这种存在道德争议、人道争议的AI使用场景。我们坚决不能让步,因为任何一点点的让步,都可能导致未来道德会滑向无底深渊。(科技新发现 康斯坦丁/文)


企业会员

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。

2019-09-06
当课堂因监控技术变“囚笼”,存在争议的AI使用场景该被抵制吗?
在旷视科技的描述中,这一系统看起来颇为高大上——“旷视科技将自主研发的人脸识别、行为识别、表情识别等技术,集成在考勤及行为分析摄像机MegEye-C3V-920和行为分析服务器中,通过对课堂视频数据进

长按扫码 阅读全文

Baidu
map