“打假”Deepfake,新型AI检测工具准确率约 92%!

电子说

1.3w人已加入

描述

近年来随着人工智能的发展,Deepfake(deep learning 与 fake 的结合,类似换脸软件,即机器在深度学习大量已有资料后,伪造某人的图像和视频)已成为世界政坛的又一大威胁。

试想,别有用心的程序员完全可以借此操纵各国领导人的形象,借助各类媒体传播虚假信息,小到影响总统选举,大到引发国际关系危机。

不过,加州大学伯克利分校和南加州大学的研究者为我们带来一丝希望。

他们先运用生成式对抗网络,提取了包括特朗普、克林顿、奥巴马等人的面部、头部运动特征,制作了虚假版本的图像视频。随后,利用机器学习原理,比对真假数据之间到底有何区别。他们发现,一些异常细微的特征,比如联邦众议员桑德斯(Bernie Sanders)在说到特定字眼时点头的样子,或是特朗普重返竞选台的诡异一笑,Deepfake 的算法还无法建模分析,而这正是其检测技术的核心所在。

目前的实验显示,新型检测工具分辨真假的准确率约 92%。

这种工具可对抗的 Deepfake 类型多种多样,无论是用在简单的“换脸术”、模仿秀演员搭配数字木偶(digital puppet)制作出的视频中,还是那些带有压缩过的原始数据的文件上,效果都还算可观。研究人员还计划,进一步分析不同人物的说话风格,让甄别技术更上一层楼。

其实,“打假”工具不是第一次出现,可惜的是,制假的这方适应速度也很快。

比如在过去,虚假视频中的眼动十分不自然,以此为基础的甄别技术早就投入使用。但是 Deepfake 也不甘示弱,相关算法现已能制作出更佳的眨眼效果。

论文作者之一的南加州大学教授 Hao Li 也表示,正因为人工智能的精进为两方都提供了便利,识别 Deepfake 是一场无休止的对抗。出于顾虑,该识别方法的代码尚未向社会公布。他预测,为了赶超识别技术的不断更新,未来的 Deepfake 将不仅仅是换脸那么简单,直接合成人物的动作和行为不是没有可能。不久后,不仅仅是政客和名人,也许连普通人都会遭殃。不过在一到两年内,彻底的人工伪造人物形象也是不切实际的。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分