什么叫深度伪造技术 深度伪造技术发展趋势分析

人工智能

635人已加入

描述

在深度伪造者设计出下一个替代方案之前,检测器大多是有效的。

2022年3月,网络上出现了一段视频,内容是乌克兰总统弗拉基米尔•泽连斯基要求其军队向***。这段通过人工智能(AI)制作的视频质量很差,很快就被揭穿为不实信息。但有一天,更精细的制作可能会带来严重的地缘政治后果。

正因如此,计算机科学家们在继续设计更好的算法用于生成视频、音频、图像和文本的同时,也在创建逆向算法来检测合成内容。如今,这种检测通常着眼于特制工具的细微特征;未来,它将越来越多地依赖于基础的物理和生物信号,这些是人工智能很难仿造的。

这些数字幻影生成器和检测器会陷入军备竞赛,这也是完全有可能的。“在这方面,它永远不会终止。”意大利那不勒斯菲里德里克第二大学的计算机科学家路易莎•威尔多利瓦(Luisa Verdoliva)说。

这些数字幻影生成器和检测器完全有可能陷入军备竞赛。

2022年11月,英特尔推出了一款名为“实时深度伪造检测器”的视频分析平台。(“深度伪造”这一词源于深度学习,深度学习是一个使用多层人工神经网络的人工智能领域。)英特尔的研究员伊尔克•德米尔(Ilke Demir)说,可能的客户包括社交媒体公司、广播公司和可以向公众提供检测器的非政府组织。英特尔表示,该系统由英特尔硬件和软件组成,基于互联网的平台可远程运行这些硬件和软件,每个英特尔处理器一次可分析72个视频流。该公司表示,最终,其平台将提供多种检测工具。目前,该公司使用了一种名为FakeCatcher的检测器,这是德米尔与纽约宾汉顿大学的乌穆尔•西夫西(Umur Çiftçi)共同创建的。

FakeCatcher研究根据面部颜色变化来推断血液流动,这一过程称为光容积脉搏波描记(PPG)。研究人员设计的该款软件关注特定面部区域的特定模式。“从某种意义上来说,光容积脉搏波描记信号很特别,它们遍布人的皮肤,”德米尔说,“而不仅仅是眼睛或嘴唇。改变照明并不能消除它们。但是任何生成性的操作实际上都会消除它们,因为添加的噪声类型会破坏空间、光谱和时间的相关性。”换言之,FakeCatcher能够证实,随着心脏泵血,颜色会随着时间的推移自然变化,在面部区域有一致性。最初于2020年7月发表在《IEEE模式分析与机器智能汇刊》(IEEE Transactions on Pattern Analysis and Machine Intelligence)上的一项早期技术测试中,该检测器实现了91%的准确率,比次优系统高出近9个百分点。 当新的检测方法出现时,有人可以经常训练生成算法来欺骗它。德米尔说,FakeCatcher不容易被逆向工程用于训练生成器,因为人体细密纹理的血流模式很难被人工模拟。

加州大学圣芭芭拉分校电气工程博士、论文合著者迈克尔•戈贝尔(Michael Goebel)指出,检测方法多种多样。“在一种极端情况下,你的方法不受约束,只是纯粹的深度学习。”这意味着它们可以使用所有可用的数据。“另一种极端情况下,你的方法好像在分析一个特定的视角。我们的方法居于二者之间。”他们的系统名为PhaseForensics,该系统关注的是嘴唇,据此提取不同频率的运动信息,然后将这些摘要数据提供给神经网络。“利用运动的自身特征,我们希望对神经网络学习的内容进行某种程度的硬编程。”戈贝尔说。

音频深度伪造也成为了一个问题。2023年1月,有人上传了一段女演员艾玛•沃森朗读希特勒《我的奋斗》的虚假音频片段。研究人员也研究了这个案例。在一种方法中,佛罗里达大学的科学家开发了一种模拟人类声道的系统。该模型以数字方式构建了一个发声气道,其管道的孔径可根据长度而变化,该模型可使用该结构来预测声音。给定一个可疑的音频样本,模型会判定它在生物学上是否合理。该论文报告显示,一个数据集的准确率为99%。

为了打击深度伪造,该算法不需要对特定算法生成的深度伪造音频进行采样。那不勒斯大学的威尔多利瓦开发了另一类算法。在训练过程中,该算法学习寻找讲话者的生物识别标志。训练完成后,算法可在给定讲话者的录音中,使用其学习到的技术来寻找生物识别标志,然后在有问题的录音中寻找该识别标志。

威尔多利瓦的团队还研究了识别生成的图像和被修改的图像,无论图像是用人工智能还是用Adobe Photoshop修改的。该团队用1475台相机的照片训练了一个名为TruFor的系统,该系统学会了识别这些相机留下的识别标志类型。在检测新图像时,该系统能够识别出图像各部分之间的不匹配情况。

如今,高中生经常制作人工智能生成内容,从而提升了文本生成系统ChatGPT撰写论文的能力。有一种解决方案是让这些被称为大型语言模型的系统的创建者在生成的文本上加上水印。最近,马里兰大学的研究人员提出了一种方法:随机创建一组词汇绿色名单;然后,在自己的作品中略微偏爱使用这些词汇。如果你知道这个(秘密)词汇绿色名单,你就可以在一段文章中寻找其优势,以证明该段文章来自算法。这种做法存在一个问题:强大的语言模型越来越多,我们不能指望所有的语言模型都给其输出加上水印。

普林斯顿大学的学生爱德华•田(Edward Tian)创建了一个名为GPT-Zero的工具,该工具可以查找Chat-GPT编写文本的痕迹,即使没有水印也可以。人倾向于选择更令人惊讶的单词,而且句子长度的波动很大。不过GPTZero似乎有局限性。一位用户对GPTZero进行了一次小测试,在10篇由人工智能撰写的文本中,它能正确地将10篇标记为合成文本,但在10篇由人撰写的文本中,它错误地将8篇标记为了合成文本。

合成文本检测可能远远落后于其他媒介的检测。马里兰大学计算机科学副教授汤姆•金斯坦(Tom Goldstein)是水印论文的合著者,他表示,这是因为人们使用语言时有很多种不同的方式,而且通常没有太大的数据量。一篇短文可能只有几百个单词,而图片则有几百万个像素,单词是离散的,不同于像素颜色中的细微变化。

深度学习

检测合成内容事关重大。它可用来影响教师、法院或选民,也可以产生羞辱性的或令人不安的内容。仅仅是深度伪造的想法就可以削弱人们对媒体的信任。德米尔称这种未来是“反乌托邦的”。她说,短期内,我们需要的是检测算法。从长远来看,我们还需要协议来建立起源,可能涉及水印或区块链。

谈到检测方法,威尔多利瓦说:“人们希望有一种神奇的工具,它能够完美地完成每件事,甚至能够进行解释。”这种东西是不存在的,而且可能永远不会出现。“我们需要多种工具。”即使检测器能够戳破深度伪造,内容在消失前依然会在网络上短暂地留存。它会产生影响。因此,威尔多利瓦说,仅仅依靠技术是不能拯救我们的。相反,人们需要找到方法来适应这个新的、充满非真实性的现实世界。

作者:Matthew Hutson

编辑:黄飞

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分