以假乱真的AI换脸术:眼见未必为实

(原标题:以假乱真的AI换脸术:眼见未必为实)

摘要: 不用细思,已经恐极。

以假乱真的AI换脸术:眼见未必为实

在座的各位,是不是已经试过人脸解锁手机了?是不是尝试过刷脸购物了?玩过人脸识别的动物表情小游戏了没?如果都有的话,那么想必咱们可以达成一个共识:AI在人脸这件事上已经越来越精通了。

如果说识别只是AI对人脸做出的第一件事,那么第二件事是什么呢?从种种迹象来看,答案只有一个,那就是给人换脸。

当然,AI不会真的去给人整容(至少目前不会),它能做的是在视频里给人换脸。比如最近刷屏级的小视频可能大家都已经看过了。

以假乱真的AI换脸术:眼见未必为实

视频中的女主角(确切的说是女主角的脸)是《神奇女侠》的扮演者盖尔·加朵。但这当然不是其本人出演了什么令人羞耻的小电影。而是有人用 学习技术把盖尔·加朵的脸替换到了原片女主角的身体上。乍看之下基本没什么破绽,但其实两个人是不怎么像的。

以假乱真的AI换脸术:眼见未必为实

(左为原片角色,二人差距其实不小)

这个ID叫做deepfakes的网友,始终致力于在Reddit上分享其利用AI技术制作的明星换脸小视频。差不多所有当红的好莱坞女星都被他“炮制”了一遍。

各位同学是不是感觉有点兴奋?以后想看哪位明星的片子自己动手做就是了,甚至可以把自己的脸替换上去演对手戏,各种YY皆能成真。

可是,如果是你亲戚朋友的脸被替换了呢?如果把犯罪现场所拍摄嫌疑人的脸换成你呢?如果在你不知情的情况下,不法分子发给你家人一段有你露脸的绑架视频呢?

当我们不能相信自己的眼睛,各种混乱和罪恶的重量,绝对会大于那一点点违法的“福利”。

换脸的恐怖之处,在于AI很简单

其实视频换脸这件事也并不出奇了。耳熟能详的可能要属《速度与激情7》里为了让保罗·沃克回归,片方用了替身+动态捕捉+CGI动画的方式,以保罗的两位弟弟为替身,最终让观众的老朋友重新回到了大屏幕上。

以假乱真的AI换脸术:眼见未必为实

(保罗·沃克和最终成为他替身的两个弟弟)

这样的换脸技术虽然高超,却并不让我们担忧。因为这是电影的艺术需要,必须要耗费大量人工与后期特效成本,并且要求专业的视频剪辑技术才能实现。这意味着,这种精准的换脸并不能出现在日常生活中,也不会给普通人带来威胁。

但AI在瓦解这一切。

让我们重新回到前面提到制作女星换脸小电影的deepfakes。这哥们不仅是个老司机,还是一位热爱分享的“技术型活雷锋”。他不仅免费发布了他的成果,还不厌其烦的分享了自己制作换脸视频的教程,以及自己编写的 学习代码和相关数据集……大概他的意思是,别再问我要谁谁的视频了,你们自己做去吧……

以假乱真的AI换脸术:眼见未必为实

当然,这哥们也不是专注女明星,上边这张就是他分享的如何把尼古拉斯·凯奇换成川普的教程,大概其内心深处也深谙中国的“表情包之道”。

根据他的分享,制作一个明星换脸视频非常简单。以盖尔·加朵的视频为例,他首先会在谷歌、YouTube以及各种网络图集中收集盖尔·加朵的各个角度的视频和图片。组成一个能满足 学习任务进行脸部替换的素材库。

然后他会通过TensorFlow上提供的机器视觉相关模型,学习和理解原版小电影中女主角的面部特征、轮廓、动作和嘴型等等。继而让模型在素材库中寻找各种角度、各种表情下AI认为合适的图片与视频,对原本视频进行替换。

虽然可以看到,他做的视频在很多细节上还是有瑕疵,不够自然。但是大体一看已经可以蒙混过关,并且制作效果在日渐提高。

这里隐藏的真正问题,在于利用开源的AI架构进行视频换脸这件事,不是太复杂太前卫了,而是太简单太容易了!

为了验证这点,我先后把deepfakes分享的视频和代码发给了三位从事机器视觉相关工作的朋友,得到的反馈基本一致:这东西毫无技术难度。只要会用TensorFlow的基础功能,电脑显卡不至于太烂,差不多几个小时就可以搞出来一个。

哪怕连编程基础都没有的人,跟着教程一步步走,搜集足够多的素材,也可以自己搞出来换脸视频。

设想一下,当你身边某个仇人想要陷害你的时候,只要收集你的照片和自拍,就可以随意把你和任何罪恶甚至肮脏的视频结合到一起,然后在你的社交圈里散播的到处都是,那场面何其令人胆寒?这就像枪支可以无审查、无监管的随意买卖,并且价格低廉。

以假乱真的AI换脸术:眼见未必为实

在机器视觉开发的底层技术日益完善后,视频换脸必然继续在三个层面加强它的普及化:

1.近乎无门槛使用。换脸相关的数据集、源代码和架构,在今天只要有心就可以轻易找到,随着技术的成熟,这种趋势大概只会愈演愈烈。

2.可以工具化。由于技术并不复杂,这个功能被工具化的可能性很大。也就是说不法分子可以把它做成一个应用,购买了之后只要按要求添加视频和希望替换人的图像,就可以自动生成换脸视频,达成真正的无门槛。

3.欺骗性不断增强:有相关AI从业者认为,deepfakes的视频仅仅经历了初步的学习和替换过程,没有进行修补和细节雕琢,就已经获得了很高的完成度。那么假如进一步结合对抗生成网络进行修饰,大概就可以生成真伪难辨的视频了。

总之,当我们知道照片可以PS之后,视频也不再可信了。而且,不仅仅是视频。

山雨欲来:下一站是直播+换脸

去年年初的时候,德国纽伦堡大学的相关团队发布了一个应用,也就是非常出名的Face2Face。这款应用的能力,是通过摄像头进行脸部追踪,从而让视频里的人跟着你说话。

以假乱真的AI换脸术:眼见未必为实

由于其精准的捕捉效果和实时化能力,Face2Face在诞生之日起就引起了轩然大波。在其演示视频下,无数网友质疑这项技术将成为网络诈骗、绑架勒索的帮凶,质疑如果视频电话的另一端,竟然不是你认识的那个人,那将会是多么恐怖的一件事。

当然了,Face2Face目前是个封闭状态,用户只能扮演其提供的角色尝尝鲜而已。但经过了一年多的发展,直播中的脸部捕捉和替换技术也已经大幅度提升。如今我们可以在直播平台上看到实时替换的背景和道具,而利用AI在直播中进行脸部替换,也已经是近在咫尺的一件事。

与之相配合的,是AI进行声纹识别与声音合成技术也在突飞猛进。比如Adobe在近两年陆续发布了新的声音合成技术。普通人用AI来进行柯南用蝴蝶结完成的换声,已经不是多困难的事情。

以假乱真的AI换脸术:眼见未必为实

借助AI,直播中换脸和换声正在同步向前跨越。那么带来的影响会是什么呢?

双头人开播?川普坐在白宫办公室里跟你连麦?某当红小鲜肉在直播中跪着给你唱《征服》?没问题,统统都可以。

有没有很开心?当然,你跟直播平台可能都开心了,小鲜肉却不开心了。

而换个角度想想,假如同样的技术运用在视频电话里呢?假如你接到的亲人/朋友的视频电话,套取你的隐私或者跟你借钱,事后竟然发现是陌生人处心积虑伪造的。假如一个人可以彻底伪装成另一个人,还会有人开心吗?

当我们打开手机电脑,发现一切都不是真的。真是挺丧心病狂的一件事。

AI换脸并不难,由于多种应用场景的存在和超高的娱乐性,我们也很难阻止它的到来。于是真正该让我们头疼的,大概就是深藏其中的法律问题与伦理陷阱。

基本可以很靠谱的说,今天国内外的很多直播与视频平台,都在研发直播换脸技术。并且某些解决方案已经相当成熟。试想一下,换脸之后的当红女神与小鲜肉,整晚开直播说一些迎合猎奇心理的话,礼物还不多到把平台挤爆了?——即使用户明知是假的。

当然,正规直播平台大概不敢这么做,使用这种技术会非常克制。但是假如有第三方插件可以做这件事呢?或者在缺乏监管的地下直播/半地下直播平台上呢?毕竟利益和猎奇可以驱使人去做各种事情,技术的门槛一旦解禁,滚滚而来的法律问题很可能决堤。

这里隐藏的伦理陷阱,是肖像权这个东西可能会前所未有的复杂化。无论是明星还是普通人,大概都不希望被别人“易容”成自己的样子来进行直播。

但问题是,你如何证明ta易容的是你呢?或者说你如何证明你是你?我们知道,肖像权是指你本人拍摄的图像和视频。但是用你的面部数据搭建起来的AI模型还属于你的肖像权范畴吗?

更困难的是,你根本无从证明AI搭建出来的肖像模型跟你有直接关系。毕竟 学习训练是在看不见的后端完成的,制作者大可以说是臆想出来,或者用跟你很像的人来搭建的。再或者只比你脸上多一颗痣,是不是就不是你了呢?

以假乱真的AI换脸术:眼见未必为实


企业会员

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。

2017-12-24
以假乱真的AI换脸术:眼见未必为实
以假乱真的AI换脸术:眼见未必为实,ai 直播 小电影 自拍

长按扫码 阅读全文

Baidu
map