人工智能恶意软件出现 可利用AI模型隐藏恶意

电子说

1.2w人已加入

描述

最近几年,计算力的提升、算法改进和大数据的出现,让人工智能重新爆发。作为一种技术,人工智能可以用来做许多事。但是,如果把人工智能(AI)应用于恶意软件的开发会发生什么?威胁行为者可以使用AI驱动的恶意软件来创建强大的恶意代码,以逃避复杂的防御。

IBM研究院的安全研究人员开发了一种由人工智能驱动的“高度针对性和回避性”攻击工具,DeepLocker能够隐藏其恶意,直到它感染特定目标。

专家在博客中写道:IBM研究院开发了DeepLocker,以更好地了解现有的几种AI模型如何与当前的恶意软件技术相结合,以创建一种特别具有挑战性的新型恶意软件。

“这类由人工智能驱动的恶意软件可以隐藏其意图,直到它触达特定受害者。一旦AI模型通过面部识别、地理定位和语音识别等指标识别目标,它就会释放恶意行为。”

根据IBM研究人员的说法,DeepLocker能够避免检测并仅在特定条件匹配后激活自身。人工智能恶意软件是高目标攻击的特权选择,就像民族国家行为者所做的那样。恶意代码可以隐藏在有害的应用程序中,并根据各种指标选择目标,比如语音识别、面部识别、地理定位和其他系统级功能。

“DeepLocker将其恶意负载隐藏在良性运营商应用程序中,比如视频会议软件,以避免被大多数防病毒和恶意软件扫描程序检测到。”IBM专家表示。

“DeepLocker的独特之处在于,AI的使用让解锁攻击的‘触发条件’几乎不可能进行逆向工程。只有达到了预期目标时,才会解锁恶意有效负载。它通过使用深度神经网络(DNN)AI模型实现这一目标。”

研究人员通过将WannaCry勒索软件隐藏在视频会议应用程序中并将其保密,直到通过面部识别识别出受害者为止,他们分享了概念验证。专家指出,可以通过将受害者的脸部与公开照片相匹配来识别目标。

“为了展示DeepLocker功能的含义,我们设计了一个概念验证。我们在一个良好的视频会议应用程序中伪装一个著名的勒索软件(WannaCry),以便它不被恶意软件分析工具(包括防病毒引擎和恶意软件沙箱)监测到。作为触发条件,我们训练AI模型识别特定人员的面部以解锁勒索软件并在系统上执行。”

“想象一下,这个视频会议应用程序是由数百万人分发和下载的,这在许多公共平台上现在都是合理的。推出时,该应用程序会秘密地将相机快照提供给嵌入式AI模型,但除了预定的目标之外,所有其他用户都表现正常,“研究人员补充道。

“当受害者坐在电脑前并使用该应用程序时,相机会将他们的脸部送到应用程序,并且由于受害者的脸,这是解锁它的预编程键,因此将秘密执行恶意有效载荷。”

据悉,IBM研究小组将在拉斯维加斯举行的黑帽安全大会的现场提供更多详细信息。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分