人工智能正在超越人类,通过扫描动物面部表情识别压力和疼痛,甚至可能解读更复杂的情感。
在英格兰东南部一个细雨蒙蒙的清晨,数百头粉红色的母猪在6点准时醒来,准备享用早餐。它们哼哼着,流着口水,急切地挤向几十个喂食栏,争先恐后地冲向早餐。
但在享用美食之前,它们得先拍张照片。
每头猪挤进喂食栏时,一个小摄像头会拍下它的面部照片。不到一秒钟,人工智能系统就能通过它的鼻子、耳朵、眼睛等面部特征识别出它。然后,AI会根据这些信息定制一份早餐,直接送进食槽。
与此同时,系统继续分析照片,寻找面部表情中可能表明疼痛、疾病或情绪困扰的迹象。如果发现任何异常,系统会立即向在隔壁房间享用早晨咖啡的农场主发出警报。
这些饥饿的小猪们是Intellipig系统的无意中的测试者,该系统由英国西英格兰大学(UWE)和苏格兰农村学院(SRUC)的科学家们开发,旨在解决动物福利中的一个根本问题:我们人类并不擅长理解动物的感受。
Intellipig团队并不孤单。全球的科学家们都在利用人工智能来解读动物的面部表情,从绵羊到马匹再到猫咪。一些人已经开发出比最细心的人类更快、更准确的算法,能识别疼痛和压力的迹象。
这些工具可能开启一个新时代,让我们更加关注动物的健康、福利和保护,UWE的机器视觉工程师Melvyn Smith说。他领导了Intellipig系统的设计。更令人期待的是,AI未来可能在解读更复杂的情感方面超越人类,比如快乐、宁静、挫败或恐惧,这些情感同样重要,只有理解它们,才能给动物提供最好的生活。
然而,像大多数研究AI的科学家一样,动物行为研究人员也担心过度依赖机器,尤其是在涉及动物福利时。“也许机器最终会比我们更强,我不知道,”SRUC的动物行为科学家Emma Baxter说,她与Smith合作。“我希望专家能有发言权,确保AI真的在做它该做的事。”
科学家们早就知道,和我们一样,动物通过面部表情传达感受。在1872年出版的《人类与动物的情感表达》一书中,查尔斯·达尔文提出,面部表情是哺乳动物间的一种“共同语言”,这种能力必然在我们的进化历史中早早出现。
达尔文的理论主要基于解剖学,诺丁汉特伦特大学的心理学家Bridget Waller说。哺乳动物,包括人类,有许多共同的面部肌肉,用于做出面部表情。例如,我们与狗共享38%的面部动作,与猫共享34%,与灵长类和马共享47%。
尽管解剖学相似,但我们无法像读懂人类面孔一样读懂动物的面孔。因此,研究动物沟通的科学家往往通过情境来推测动物的感受。
疼痛是最明显的例子:一匹刚被阉割的马或一只因足腐病而跛行的绵羊无疑感到疼痛。研究动物表情的科学家有时会通过给动物带来轻微不适来进行研究,比如在腿上绑紧血压袖带,或在皮肤上涂抹少量辣椒提取物。给动物使用止痛药通常会让它感觉好些。
同样,给许多物种带来轻微压力也很容易,比如让马或猫短途旅行,或暂时与朋友分开几分钟。为了研究年轻母猪的压力,Baxter会带来年长的母猪,它们通过表现出主导地位来威胁年轻母猪。焦虑行为,如叫喊和排便,以及压力激素皮质醇水平的急剧上升,可以确认动物处于压力状态。
科学家们花了成千上万个小时坐在猪圈和笼子前,观察动物在这些疼痛或压力情境下的面部表情,然后与那些可能没有疼痛或压力的动物进行比较。结果,他们为多种物种开发出“痛苦指数”,根据面部肌肉的运动来衡量动物感受到的疼痛或压力程度。
例如,一匹旋转耳朵向外并在眼睛上方形成“担忧皱纹”的马,比一匹保持耳朵和眼睛放松的马更有可能感到疼痛,瑞典农业科学大学的马匹外科医生Pia Haubro Andersen说。马会通过类似的耳朵动作和皱纹表达压力,但也会露出舌头等细微差别。
专家们已经掌握了手动编码这些动物面部动作的技能,理论上可以进行福利检查。但这是一项非常繁琐的工作,Andersen说。人类编码员平均需要100秒才能在单张图像中识别各种面部肌肉并编码它们的位置,或者需要2到3个小时才能完成30秒的视频。
而AI可以在瞬间完成同样的任务,但前提是它需要学习。
在以色列海法大学的办公室里,计算机科学家Anna Zamansky在工作日经常要忍受警报和爆炸的喧嚣。她曾多次带着笔记本电脑和心爱的巧克力贵宾犬Becky——也是她最喜欢的研究模特——躲进防空洞。
然而,与加沙大学废墟中的科学家们不同,Zamansky的团队能够继续他们的研究。他们正在训练AI系统自动读取动物的面部表情,以改善它们的生活。“将我们的智慧和最佳能力用于改善动物福利?这真的帮助我们在这些艰难时刻生存下来,”她说。“这让我们感到希望。”
Zamansky最初开发了一种面部识别软件,帮助人们找到走失的狗。狗主人将狗的面部照片上传到软件中,软件会在由热心陌生人提交的流浪狗图像数据库中搜索匹配项。Zamansky和她的合作开发者George Martvel——一名逃避俄罗斯征兵的乌克兰战争难民——已经将这项技术捐赠给在乌克兰和巴西洪水地区工作的救援组织,帮助数十只走失的狗与主人团聚。
最近,团队转向了一项更具挑战性的任务:利用AI识别动物面部表情中微妙的不适迹象。首先,AI系统必须学会识别与创建表情相关的面部部位。这需要在无数动物照片上手动标记与肌肉运动相关的重要“标志点”,例如眼睛的上下部或鼻孔的两侧,并将图像转换成一堆数字点,就像儿童连点画书中的一页。在肯尼亚自由职业者的帮助下,Martvel和同事们已经为多种物种,包括猫、狗、马和灵长类动物,标记了“成千上万”的面孔。
科学家们可以将大量标记好的照片输入AI,教它自动在新图像上找到标志点。例如,2016年,剑桥大学的计算机科学家Peter Robinson及其团队在研究人类面部的基础上,开发了一种工具,可以自动找到绵羊面部上的嘴巴、眼睛和耳尖。一年后,加州大学戴维斯分校的计算机科学家们开发了一种程序,通过将马和羊的面孔变形为更接近人类的形状,来自动在这些动物的面孔上放置标志点。
Martvel的AI现在已经非常擅长自动标记,甚至可以在看不到整张脸的情况下找到点的位置,比如狗把鼻子埋在食盆里,或者猫从沙发后面探出头来。
一旦标记完成,AI就可以通过分析这些标志点之间的距离来识别特定的面部表情。例如,如果一只猫紧张地张大和绷紧嘴巴,口角两侧的两个点之间的距离就会变宽。通过将这些表情与研究人员已经创建的痛苦指数进行交叉引用,AI可以寻找疼痛或压力的迹象。
经过这些艰苦的训练,AI系统能够以令人印象深刻的精度诊断福利问题。例如,Robinson的AI成功识别出羊群中少数患有足腐病或乳腺炎的母羊。2023年,Zamansky和她的学生Marcelo Feighelstein发现,他们的AI在判断猫是否感到疼痛时的准确率为77%。
尽管有效,这些工具仍然依赖于人类对动物表情中寻找什么的初步判断。因此,最近研究人员将更多的控制权交给了AI。一些科学家不再教计算机系统寻找预定义的疼痛或压力表情,而是给AI提供不同情境下的动物图像,让它自行发现迹象,这个过程称为 学习。
这就是圣保罗大学兽医Gabriel Lencioni的方法。他是马匹行为与福利的博士生。在最近的研究中,他给AI系统提供了手术前后以及计划止痛药前后的马匹面部照片,指示机器专注于耳朵、眼睛和嘴巴的差异。经过3000张图像的训练,“AI自己学会了”,他说;最终,它能在88%的时间里正确诊断出动物是否感到疼痛。Andersen和她的同事Sofia Broomé开发了一种类似的工具,通过视频而不是图像训练AI;在测试中,AI不仅识别出兽医遗漏的疼痛迹象,还正确地宣布专家认为有疼痛的动物实际上无痛。
在英国智能农场试点的Intellipig系统也使用 学习。Smith说,AI不仅在识别个体猪方面胜过人类,准确率达到97%,而且在仅通过面部特征识别压力方面表现出色。
今年早些时候,Zamansky的团队发表了一项研究结果,表明一种自由发挥的AI在检测绵羊疼痛方面比高技能的兽医和行为专家更可靠。算法在82%的试验中正确判断出绵羊刚做完痛苦的手术,而四位接受过高强度训练的人类只在70%的时间里做出正确判断。
Zamansky将这些AI的胜利比作1997年的历史性时刻,当时IBM超级计算机深蓝在数百万观众面前击败了俄罗斯国际象棋大师加里·卡斯帕罗夫。“像现在所有对AI反应的人一样,卡斯帕罗夫的第一反应是恐慌。每个人都想,‘哦,天哪,AI要抢我的工作了!’”Zamansky说。“但后来他们明白了,AI只是一个非常强大的工具,可以增强他们自己的能力。”
然而,Zamansky警告说,一个可以自由决定在图像中寻找什么的计算机可能会关注错误的特征。一个经典的例子是背景中的时钟。假设研究人员每天早上10点拍摄无痛或快乐动物的照片,作为标准科学程序的一部分,然后在下午5点拍摄相反状态的动物照片。“如果机器在图像中看到上午10点的时钟,它会说这是一只无痛的兔子,”她说——即使实际情况并非如此。
无法了解AI实际上是如何做出决策的,这让研究人员感到不安。“每个人都担心黑箱,因为他们不知道机器做出了什么决定,或者为什么,”Zamansky说,她的学生Tali Shitrit的论文研究的就是弄清楚她们的AI在动物面孔中寻找什么。她使用了一种名为梯度加权类激活映射(GradCAM)的工具,该工具生成热图,显示AI在做出决策时关注面孔的哪些区域。
到目前为止,她发现机器通常认为眼睛区域是最有信息量的,无论数据集或物种如何。不过,在猫的情况下,根据与德国汉诺威兽医大学的Holger Volk合作的研究,热图在鼻子和嘴巴周围最热。
尽管存在这些问题,一些研究人员正在更进一步,努力开发能够读取比压力和疼痛更复杂的情感的系统,这些情感更接近于人类的快乐、愤怒或悲伤。
莱昂学院的进化心理学家Brittany Florkiewicz看过太多的猫视频。她和她的团队花了数百个小时观看洛杉矶一家猫咪咖啡馆里猫咪玩耍和打闹的录像,仔细编码每一个细节的面部表情,寻找猫咪“快乐”或不快乐的迹象。
这项工作揭示了猫咪有276种不同的面部表情。现在,Florkiewicz与Martvel和Zamansky合作,将AI应用于她的数据。AI已经显示,这些咖啡馆里的猫咪倾向于微妙地模仿彼此的面部表情,通常是为了通过互相梳理或玩耍来建立联系。
在类似的研究中,Zamansky的团队训练AI识别照片中的拉布拉多犬,它们要么迫不及待地期待着奖励,要么能看到奖励但无法得到它。AI能够成功地在89%的时间里判断出一只狗是“快乐”还是“沮丧”。它在区分“快乐”和“沮丧”的马匹时同样成功。在同一实验中,一些马被拍到发现期待中的奖励并不存在。研究人员发现,AI能够在61%的试验中正确地将马匹归类为“沮丧”或“失望”——这个成功率虽然不高,但比随机猜测要好。
为了在这些成功的基础上进一步发展,Martvel和Zamansky正在构建狗、猫、马和灵长类动物在不同情感状态下的面部数据库。团队在网上搜索照片,主人提供了清晰的情境描述,从而可以推测出动物的情感。通过将照片输入AI,他们希望解读出每种独特情感场景下物种的独特面部表情。
Zamansky的“梦想”是拥有一个“狗脸阅读器”,能够揭示基本情感状态,如快乐、悲伤和压力,这对AI来说是一个挑战,因为狗的品种之间面部和耳朵形状差异很大。“现在还不可能,我知道,”她说。“但一年后就有可能。我们一直这样告诉自己,并为此努力。”Florkiewicz说,有一天,机器甚至可能开始将某些面部表情与“意图”联系起来,比如出门、抓住玩具或开始打架。
一个挑战是积累训练数据。“他们用大约相当于剑桥大学图书馆一半藏书的文献量训练了ChatGPT,而剑桥大学图书馆拥有英国出版的每一本书的副本,”Robinson说。“但实际上,网上并没有那么多狗、猫和羊的照片”——至少没有那么多能清楚看出动物感受的照片。
而且,面部表情并不能说明全部问题,哥本哈根大学的动物沟通专家Elodie Briefer说,她正在开发AI来解读猪和斑马的叫声中的情感。要探究动物的情感,AI必须超越面部表情,关注尾巴摇摆或驼背等因素,达尔豪西大学的农业工程师Suresh Neethirajan说。他的AI动物福利检查系统甚至分析体热辐射,这对于那些面部表情有限的物种,如鸡,是一个重要线索。
尽管存在这些局限性,面部AI已经提供了“务实和现实”的机会,Zamansky说。她的团队即将推出一款基于AI的应用程序,允许猫主人扫描宠物的面部30秒,立即获得易于理解的消息,例如“检测到嘴巴周围有明显的紧张,疼痛程度中等”。
荷兰的研究人员开发了一款类似的应用程序,扫描休息中的马匹面部和身体,估计其疼痛程度。Lencioni建议,AI未来可以在马术比赛中使用,奖励那些快乐和舒适的马匹的骑手,从而提高比赛中的动物福利和公平性。
更广泛地说,实验室和宠物收容所可以利用AI监测动物的疼痛和情感状态,Florkiewicz说。而“智能农场”——如英格兰乡村试点的那些——承诺通过每日监测为动物提供个性化护理。最终,Smith说,AI助手可以指导农民不仅给猪提供无压力的生活,还要提供快乐的生活。
对Zamansky来说,这一前景使她所有的工作都变得值得。“我的职责是为动物争取更好的生活,”她说。“当我们知道我们的动物伙伴是快乐的,我们也会感到快乐。”
本文译自 Science,由 BALI 编辑发布。
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )