社交网络上的图正被Deepfake机器人用来生成果体照

描述

小心!

别有用心的人,正在盯着你放在社交网络上的美照,还可能已经被Deepfake拿去生成果照。

最近,外媒The Verge曝光了这个现象:

在Telegram上,Deepfake机器人泛滥,随便一张社交网络上的照片,即可自动生成开车图。

还可以直接携图分享。

跟日常我们发送图片、接收图片一样简单~

与此相关的数据令人咋舌。

关注Deepfake传播的研究机构「Sensity」发现,截至到2020年7月,在Telegram公共频道中已经生成并分享了超过10万张。

这意味着,生成的图片总数,包括那些未曾分享过、或是7月以来制作的照片,是远远高于这个数字的。

Sensity表示,这些频道中的大部分用户,大概有70%来自俄罗斯和周边国家。

目前,仍然有很多渠道处在活跃状态中。

Deepfake机器人

这些机器人可以免费使用,不过会生成带有「FAKE」的红色字样水印,或只有部分果体的果体照片。

想要「升级」照片,用户需要一定的费用,来「揭开」这些照片。

比如,「初级收费」。

用户需要支付100卢布,折合人民币8.63元,就可以在7天内生成100张、没有水印的果体照。

说到这里,是不是有人觉得很熟悉?

这像是去年夏天火爆网络,但几天即下架的「DeepNude」。

对对对,就是那个「一键脱衣」。

Sensity也表示,这是DeepNude经过反向工程来打造的一款机器人。不同的是,这个机器人可以自动处理收款。

当然,这些果体照都是假的!

生成出来的果体照会存在斑点、像素化的现象,但也有些很容易被误认为是真实图片。

按照去年我们的DeepNude实测结果,果体生成是有诸多「讲究」的。

比如,穿的越少,效果越好。如果给了一个衣服特别多的图片,处理效果非常暴力。

所以,总体来说,美照穿得越少,被生成那种照片的难度越小。

没错,技术被滥用,逼得互联网也得“保守”。

「一键脱衣」原理

去年,就有人曾揭秘过DeepNude背后的技术原理。

DeepNude主要使用了计算机视觉领域的3项技术。

图像修复:Image Inpainting。

这是英伟达研究团队提出的一个模型,当画面被严重涂抹后,模型仍然能够恢复出“原来”的图像。此外,还可以做到去掉图像中的某些物品。

Pix2Pix:使用条件对抗网络作为图像到图像转换问题的通用解决方案。

以及2018年SIGGRAPH最佳博士论文奖得主朱俊彦提出的CycleGAN。

CycleGAN使用循环一致性损失函数来实现训练,而无需配对数据。它可以在普通的马和斑马之间进行转换,也能把夏天的景色变成冬天的景色。

背后的隐忧

正如去年DeepNude所带来的道德争议,Sensity对这个机器人表现出一定的担忧。

曾经一项民间调查显示,近7成民众更想要看「私人」的果体照(也就是不是大明星、模特的那种),当中90%的用户想要看现实生活中熟悉的女生。

那么,有了这个Telegam机器人,任何在社交网络上自拍照的女生都可能成为潜在的受害者。

甚至,如果遇到被陌生人偷拍,拿去生成照片,那就更加不堪设想了。

The Verge和Sensity都联系了Telegram,询问他们为何允许在其应用上发布这种内容。

目前尚未得到回复。

而且对这种技术滥用,当前似乎也没有比较好的治理方法。

如果你有思考和建议,也欢迎分享~

责任编辑:lq

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分