为保证国家安全,Facebook利用AI模型来检测潜在的虚假照片或视频

人工智能

632人已加入

描述

所谓的“深度假视频”现在成为美国立法者担心的一个主要问题,他们担心AI伪造的政府人员视频可能成为国家安全威胁。

Facebook表示它已经建立了一个机器学习模型来检测潜在的虚假照片或视频,然后将这些模型发送给其事实检查员进行审查。第三方事实检查合作伙伴可以使用视觉验证技术,包括反向图像搜索和图像元数据分析来审查内容。

Facebook打算利用其收集的照片和视频评论者来提高其机器学习模型的准确性,以检测这些媒体格式的错误信息。

它定义了照片和视频中的三种错误信息,包括:操纵或制作的内容; 脱离背景呈现的内容; 文字或音频中的虚假声明。

Facebook提供了与文本相比识别图像和视频内容中的虚假信息的困难的高级概述,以及它用于克服它们的一些技术。但总体而言,人们的印象是,Facebook并没有接近自动系统来大规模检测视频和照片中的错误信息。

目前,它正在使用OCR从照片中提取文本,例如照片上的虚假标题,以便将文本与事实检查员文章的标题进行比较。它还在开发检测照片或视频是否被操纵的方法。为此,它使用音频转录来比较它从音频中提取的文本是否与事实检查者之前已经揭穿的文本中的声明匹配。

“目前,我们正在与照片上比我们使用的视频音频转录使用OCR更先进的,” 说的Facebook产品经理泰莎里昂。

与文章一样,一旦事实检查人员确认其为假,Facebook将专注于识别虚假视频和照片的重复。

Lyons表示,Facebook在寻找精确复制的照片方面“相当不错”,但是当图像被轻微操纵时,Facebook更难以自动检测。

“我们需要继续投资技术,这将有助于我们识别出以微小方式发生变化的非常接近的副本,”里昂斯说。

Lyons表示,检测某些东西是否脱离背景也是一项重大挑战。

“了解某些事情是否脱离了背景是我们正在投资的领域,但还有很多工作要做,因为你需要了解媒体的原始背景,媒体呈现的背景,以及是否两者之间存在差异,“她指出。

照片和视频内容中的错误信息的影响也因国家而异。Facebook已经发现,在美国,大多数人报告看到文章中的错误信息,而在印度尼西亚,人们更多地报告在照片中看到的误导信息。

“在媒体生态系统欠发达或识字率较低的国家,人们可能更有可能在照片上看到错误的标题,或看到伪造的照片,并将其解释为新闻,而在拥有强大新闻生态系统的国家,“新闻”的概念更多地与文章联系在一起,“里昂说。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分