当人工智能开始造假我们要怎么办

发表于 2019-06-15 10:00:18 收藏 已收藏
赞(0) •  评论(0

当人工智能开始造假我们要怎么办

发表于 2019-06-15 10:00:18
+关注

当下,人工智能的发展速度已经超出了大部分人的想象,甚至让我们感觉到害怕,如何防止人工智能这把双刃剑不被错误的使用,是当下很多AI行业人必须思考和探讨的事情。

前段时间出现的AI换脸视频,将原演员的黄蓉的脸换成了杨幂的脸,而且在视频上基本看不出破绽,初次看到的人都以为是杨幂饰演的新电视。据说,这一视频换脸技术就曾让许多名人遭遇了虚假色情片的困扰,同时,由于人工智能换脸技术的惟妙惟肖,让越来越多的人担心,有人会利用人工智能换脸技术从事违法犯罪活动,从而为无辜的人造成不必要的困扰。

人工智能换脸技术的新闻才刚过去不久,最近国外Facebook的工程师们又创造出来了一个能惟妙惟肖的模仿比尔盖茨声音的AI。而根据下图的声波对比,我们就能发现,这款声音的人工智能可以产生高保真度的音频输出。

在下列的剪辑中,你可以听到比尔盖茨似乎在说一些无伤大雅的话,“游泳时抽筋并不是小危险”、“摘下那朵没有叶子的玫瑰花”等,这声音听起来与比尔盖茨的声音毫无差别,据设计和创建该人工智能系统的Facebook工程师介绍,AI所生成的每个语音片段都是由这个机器学习系统生成的,而且它不止能克隆比尔盖茨的声音,还能模仿其他人的声音,只是比尔盖茨是其中最著名的人。

不可否认,这些音频样本令人印象深刻,这几年,AI音频模仿的技术一直在不断提升,很多人担心,有人会利用这一技术实施电话诈骗或从事其他非法活动。

同时,人工智能生成制造的假新闻,可能会造成非常坏的影响,因为在社交媒体上,假新闻的传播速度比真相还要快,而且随着假新闻AI生成器变得越来越先进,区分真假新闻变得比以往任何时候都要困难,人工智能可以根据简单的提示快速生成令人信服的文本段落,并炮制出让人相信的虚假故事,从而来影响公众舆论。其实很多人的担心并不多余,现如今虚假新闻影响舆论的情况时有出现,我们该如何去应对,才能识别出哪些是人工智能制造的假事件哪些是真实的世界呢?

想要识别哪些是真实的,哪些是人工智能模仿的信息(图片、语音、视频),我们必须从源头对人工智能的原理进行了解。例如在华盛顿大学的罗恩·泽勒斯及其同事共同开发了一款既能够编写,又能够识别假新闻的人工智能格罗弗,他们用新闻网站上数以百万计(120GB)的文章来训练格罗弗学会了写文章,而且还能调整其风格去模仿某一特定风格的网站文章。在撰写假新闻的时候,格罗弗只需要几秒钟,就能生成一篇有编造的统计数据和假引文的文章,而且这些引文通常来自真实存在的专家或者政客。

而后,研究人员对包括格罗弗在内的4个人工智能进行测试,以测试其区别人类记者写的5000篇真实文章和格罗弗编造的5000篇假新闻文章,发现表现最好的人工智能就是格罗弗本身,因为它自己就是最好的判别器,准确率可达92%,不过,该研究团队并没有测试格罗弗对其他人工智能生成的假新闻的识别能力。

从这个实验,我们就会发现,对人工智能导致的造假最好的防御的就是从人工智能本身出发,对格罗弗最好的防御就是格罗弗本身。就如同格斗一般,要抵御对手的攻击,我们最需要了解的是对手会做什么,针对人工智能技术未来可能导致的造假事件,我们也该如此。

声明:本文由入驻电子说专栏的作者撰写或者网上转载,观点仅代表作者本人,不代表电子发烧友网立场。如有侵权或者其他问题,请联系举报。侵权投诉

收藏

相关话题

评论(0)

加载更多评论

分享到

QQ空间 QQ好友 微博
取消