需注意防范利用AI等新型诈骗手段

电子说

1.3w人已加入

描述

昨日,公安部网安局发文提醒用户,应该注意防范利用AI人工智能等新型手段诈骗。

公安部网安局称,AI诈骗常用手法包括了,合成声音、AI换脸等方式。

合成声音案例中,骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。而AI换脸中,骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。

对此,公安部网安局提醒用户,面对AI诈骗应该在涉及钱款时,尽量通过电话询问具体信息,确认对方是否为本人。同时,加强个人信息保护意识,对于不明平台发来的广告、中奖、交友等链接提高警惕,不随意填写个人信息,以免被骗子“精准围猎”。

此外,做好家中老人的宣传防范工作。提醒老年人在接到电话、短信时,要放下电话,再次拨打家人电话确认,不要贸然转账。
责编AJX

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分