DeepFake换脸术混淆视听 搅乱美国政坛

电子说

1.2w人已加入

描述

最近,DeepFake 技术又一次站在了风口浪尖上。不只是因为它能在小电影上移花接木,而是立法者终于意识到它的可怕之处。

6 月初,一份有关马克·扎克伯格的假视频在国外社交媒体 Instagram 和 Facebook 上广为流传。

视频中的人,无论从相貌声音,还是穿着打扮,都跟真的扎克伯格几无二致。他能眨眼,会用手势,嘴/脸部动作和画外音音轨高度吻合。乍看之下,几乎找不到破绽,只是声音有些奇怪。

更早之前,美国众议院议长南希·佩洛西也经历了类似的事件。有人通过剪辑、拼接和慢放等手段制作了一段她的演讲视频,虽然没有用到 AI 技术,但视频中的她看起来有些神志不清,说话结结巴巴,语速缓慢,像是醉酒一样。

这段视频甚至引来了美国总统特朗普的嘲讽(两人素来不合)。

令人不解的是,这些社交平台并没有选择第一时间屏蔽虚假视频。事实上,正是因为 Facebook 拒绝撤下佩洛西的假视频,才导致有人做出了其 CEO 扎克伯格的假视频,来考验 Facebook 对虚假信息的衡量标准,看它会不会做出“自己打脸”的事情。

按照 Facebook 的官方回应,佩洛西的视频“没有违反平台的政策,因为所有人都可以自由表达自己(的想法),如果有第三方事实检测工具认定视频是假的,视频就会被打上标签,提醒用户注意其真实性,而且还会在推送中降低权重。”

换句话说,Facebook 的态度就是:我们不会移除编辑过的假视频,但会让用户知道它不是真的。

其他社交巨头也都纷纷表态,Twitter 选择了跟 Facebook 和 Instagram 站在一队,不会删除这些假视频,而谷歌旗下的 YouTube 则为了保险起见,选择了删除视频。

科技圈内部两极分化的情况也引发了舆论热议。有的人认为,纵容虚假信息流传会造成更大的混乱,尤其在政治和外交问题上,因此必须严格管控。

也有人认为,这些视频不会对某个个体造成实质性危害,贴上虚假标签即可。如果今天删除了它们,就会开创一个糟糕的先例,明天可能导致更严格的管控政策。

美国国会出手
美国国会也盯上了假视频和它背后的 AI 技术,因为不仅是佩洛西,就连总统特朗普都曾受到假视频的困扰。

与此同时,领英(LinkedIn)上还出现了一个疑似间谍的账号。她的名字是 Katie Jones,头像是一个典型的白人女性,毕业于密歇根大学,在美国国际战略研究中心(CSIS)工作。她的职场网络虽然只有 50 多人,但里面有美国参议员助理、副助理国务卿,以及美联储席位候选人兼经济学家 Paul Windfree。

根据调查,CSIS 根本没有这样一个员工,密歇根大学也没有她的学位记录,而且她联系网内的人都不认识她。肖像审查专家判断,她的头像很可能是用 AI 技术生成的假脸,很多特征与 AI 假头像高度吻合。

再结合她添加的人都是政府重要人物,专家普遍认为,其目的很可能是隐藏自己,从他们身上获取信息,甚至添加更多位高权重的人物,将领英作为从事隐秘间谍活动的渠道。

多名议员认为,如果对此类事件放任不管,不仅会影响到政治人物,还会伤害弱势群体和少数族裔,甚至波及 2020 年的美国总统大选。

因此,美国国会召开了有史以来第一场有关 DeepFake 类技术的听证会,会议已于 6 月 13 号结束,相关法案也已经酝酿了数月之久,出台对该技术和社交平台的约束政策只是时间问题。

纵观历史,能受到如此待遇的技术并不多见,立法者如此大张旗鼓地针对它,足以看出它潜在的破坏力。

AI 换脸术如何走红

如果放在 10 年前,恐怕很少有人会质疑一段视频的真实性,尤其是人脸清晰可见的视频。只不过随着 AI 技术的进步,凭空造出一个以假乱真的人脸,替换视频中的人脸,或者替换视频中的整个人物,都早已不是遥不可及的事情,甚至可能有些过于容易了。

2017 年底横空出世的 DeepFake 技术,虽然不是第一个实现换脸的技术,但却是将 AI 假视频带入大众视野的先驱。这是一种基于深度学习的伪造技术,适用于修改图片和影像,可以实现人脸的移花接木。哪怕是动图或视频中的人物,也可以被替换成毫不相干的另一个人。

DeepFake 的走红要归功于脑洞大开的网友,他们在色情视频中引入了 DeepFake 技术,将其中女主角的脸,替换成了一些当红女明星的脸,盖尔·加朵、艾玛·沃特森、斯嘉丽·约翰逊和泰勒·斯威夫特等大牌女星都难逃一劫,纷纷被替换到了不可描述的场景中。

由于视频中角色的脸部动作和视角变化较少,因此除了个别帧数出现渲染模糊和混乱的问题,DeepFake 的替换效果足以以假乱真。

不过,出于恶搞精神也好,猎奇心态也罢,这些人无疑是滥用了 DeepFake 技术,对当事人造成了伤害,而且维权无门。饱受其害的“黑寡妇”斯嘉丽就曾在公开场合表达了自己的愤怒和无奈。

鉴于其造成的恶劣影响,很多社交平台都开始封杀 DeepFake 视频。该技术的开发者也在 GitHub 上呼吁,“不要将 DeepFake 的换脸技术用于色情视频,它的价值并不在此。”

实际上,能够制造假图片和假视频的 AI 技术不仅仅只有 DeepFake,相关技术在过去五年里层出不穷。这都要归功于另一项大名鼎鼎的深度学习技术:生成式对抗网络(GAN)。

这是一种让两个神经网络“左右互搏”的技术,其中一个网络负责生成物体,一个网络负责判别物体,两者通过不断对抗来创造非常真实的虚构图像、声音或视频。

自 2014 年 Ian Goodfellow 发明 GAN 以来,世界范围内的很多深度学习团队和企业都开始在上面添砖加瓦,各种 GAN 框架漫天飞舞。

在 DeepFake 出现之前,就已经有了基于 GAN 的 Face2Face 技术和 CycleGAN 模型。前者可以通过摄像头捕捉人的脸部动作,然后实时转移到现有视频中的另一张人脸上,后者则可以改变图片和视频中物体或场景的样貌,实现马与斑马之间的转换。

类似的技术还有很多。UC 伯克利大学团队的 Everybody Dance Now,融合吸收了很多种 GAN 框架的精髓,可以分分钟让舞蹈小白看起来像是舞王附身,堪称是“舞蹈界的 DeepFake”。

英伟达的 StyleGAN,可以自动生成惟妙惟肖的图片,适用于人脸、汽车、风景和动物等。对于人脸来说,StyleGAN 用来混合的特征包括性别、肤色、脸型、姿势、表情、胡须、是否戴眼镜、头发长度和颜色等等。它虽然不是一个完美的模型,生成的图片经常出现瑕疵,但总体上效果出众。

有人用 StyleGAN 制作了一个网站 thispersondoesnotexist.com,每次刷新都会生成一张人脸图片,偶尔还真会刷出现高颜值的人。唯一的问题是,这人不是真正存在于这个世界上的。上文提到的那个虚假的领英女性头像,专家怀疑就是 StyleGAN 或者其他 GAN 框架的杰作。

AI 造假技术触手可及,是福是祸?

除了主流的 DeepFake 和 GAN,还有很多 AI 技术可以用来生成视频,像香港科技大学陈启峰教授团队的级联优化网络(CRN),仅凭一张简单的场景布局图片,就可以生成无数个高分辨率的图像和视频,还有三星 AI 实验室让静态蒙娜丽莎和爱因斯坦图片动起来的元数据框架。

然而,我们在感受 AI 技术带来的惊喜的同时,也必须意识到一个问题:借着开源的东风和技术无罪的精神,AI 造假的门槛越来越低了。

随便在网上一搜“AI 换脸”,就会找到很多神经网络训练教程,如果有编程功底,从开源社区拿到代码和数据就可以自行搭建框架和训练。

即使不懂得如何构建神经网络,看不懂晦涩的论文,甚至是不懂编程也没问题,网上早就有 fakeapp 和 faceswap 等现成的换脸软件,只要电脑硬件足够强大,跟着教程走,自制简单的换脸短视频并不困难。

往好的方向看,这种趋势降低了视频制作的门槛,方便了大众进行艺术创作,尤其是以恶搞为主要目的的视频。在 B 站上就能找到很多高质量“AI 换脸”视频,譬如把《复仇者联盟》中的美国队长改成“象牙山队长赵四”,把雷神改成徐锦江,把《武林外传》中的佟湘玉改成“黑寡妇”斯嘉丽。

抛开法律层面存在的争议不提(涉嫌侵犯肖像权),如果我们用最大的善意去看待这些恶搞,制作者的初衷可能并没有恶意,只是单纯地想让看客一笑,用 AI 技术满足大家最丰富的脑洞和想象力,毕竟里面没有涉及到形象侮辱和名誉诋毁。

而且用的好了,我们还能看到“AI 复活张国荣”这样的致敬作品。或许等技术更加成熟,越来越多逝去的名人会以“复活的”形式重新回到荧幕上。《速度与激情 7》中最后出现的保罗沃克就使用了类似的技术。

但如果往坏了想,AI 技术被居心叵测的人利用,就会出现上文说到的滥用情况。比如把女明星的脸放在色情或暴力视频中,用来伪装成一个不存在的人,伪造一个从没发生过的事,或者把一个人做的事放在另一个人身上,从而误导不明真相的人,混淆视听。

如何破解 AI 操纵信息的困境?

AI 技术的进步无疑是一件利大于弊的事情,技术本身不存在原罪。只不过我们必须制定配套的规则、规范和保护措施,才能有效避免技术滥用的情况发生,并且将发生时的损失降到最低。

美国议员正在起草的法案指出,整个 AI 产业,从上到下都必须参与其中。

首先,企业和研究机构需要开发对应的技术,用来有效识别虚假 AI 信息。网络上的信息载体可以大致分为文字、图片、音频和视频。不幸的是,每一种都被 AI 攻陷了。

OpenAI 的 GPT-2 模型可以生成流畅连贯的假文章,GAN 和 DeepFake 可以制造逼真的图片和视频,至于模拟声音,可以用 RNN 等深度学习模型完成,搜狗就刚刚展示过即时变声的酷炫功能。

不过我们可以用技术来对抗技术,用 AI 来对抗 AI。从本质上看,虚假信息的传播问题可以有两种控制方法:一是从源头入手,寻找证据,查验信息的真实性;二是从数字信息本身入手,检查是否存在修改痕迹。

Adobe 就发明了检测图像是否经过 PS 的工具,可以用卷积神经网络识别图片有没有被修过的痕迹。

美国国防部高级研究计划局(DARPA)也早就注意到了 DeepFake,并且开发了一种 AI 工具,可以在 GAN 生成的视频和图像中捕捉微妙的生理信号线索,比如不自然的眼睛运动和呼吸频率,从而识别假视频。在 SytleGAN 和 BigGAN 还没有诞生的时候,准确率甚至高达 99%,只是现在应该达不到这个水平了。

也有研究团队发明了新的神经网络模型 XceptionNet,用假视频数据集训练 AI,教它如何识别假视频。在清晰度比较高的情况下,准确率高达 95% 以上。

然而“造谣动动嘴,辟谣跑断腿”,打假不如造假吃香,学术界在对抗 GAN 方面做出的努力,仍然远不及研究 GAN 的努力。据 DeepTrace 平台统计,2018 年,全球涉及到 GAN 生成图像和视频的论文多达 902 篇,而研究如何识别合成图像和视频的论文只有 25 篇,仅为前者的 1/36。

其次,社交平台必须承担其监督和管理的责任,建立更完善的虚假信息检测机制。

这就要求 Facebook 和 Twitter 这样的社交平台拿出更积极的态度,而不是像现在这样,遇到难以控制的虚假信息就贴上个标签放任自流,甚至于连标签都懒得贴,直到有媒体报道才后知后觉。

所谓的 AI 算法和大数据加持下的事实检查工具,也迟迟没有大规模使用,偶尔使用还会闹出啼笑皆非的笑话,比如巴黎圣母院着火的视频被 YouTube 识别为 911 事件,只好依赖效率低下的人力筛查。这次扎克伯格和佩洛西的假视频,到本文发稿时,也没有在醒目的地方打上虚假信息的标签。

美国议员 Adam Schiff 认为,归根结底,是因为现有法律没有要求社交平台对平台上用户发表的内容负责,他们没有足够的动力去改进。

因此,最后需要配合的就是立法和监管机构。相比近几年 AI 技术的突飞猛进,配套的法律法规显得有些落伍了。针对 AI 合成内容,如何监管,如何收集证据,如何判罚和量刑等问题都没有确切的、详细的、可操作的法律条款作为依据。

专家建议,应当让社交平台采取合理的措施,保证内容的节制性,从而更有动力打击 DeepFake 等技术制造的虚假信息。

不过,当这些条件都尚未成熟的时候,上网冲浪的我们都应该牢记一件事情:文字、图片、音频和视频都有可能是伪造的,不能轻易地相信网络上的信息。

或许这很可悲,但我们就跟斯嘉丽一样无奈。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分