解析人工智能在网络安全中的偏见与漏洞

电子说

1.2w人已加入

描述

人工智能将彻底改变网络安全领域。在过去的五年中,这句话您听过多少次?答案可能是数十次,甚至数百次。

争论通常是这样的:人工智能和机器学习技术使网络安全从业人员,可以处理大量的网络监视数据,并可以以更高的准确率发现恶意或可疑活动。

尽管AI和ML工具在网络安全方面是有效的,尤其是在安全性和软件测试方面,但距离提供更可靠、更安全、更智能的网络安全技术,真正人工智能的出现还需要很多年。

正如BMT的高级数据科学家Evan Elliott最近对DevOps Online所说的,这在很大程度上是由于AI和ML工具能够处理大量数据并从中进行预测的速度所致。通过这种方式,AI可以对恶意的网络活动进行预警。

一些支持AI和ML驱动的安全性方法的支持者声称,这意味着AI可以搜索安全漏洞。坦率地说,这是一个不太可靠的做法。尽管AI已证明在基于历史数据进行预测方面非常有效,但使用它们主动识别网络中潜在漏洞的想法却远非如此。

人工智能对网络安全的偏见

可以简单地解释为什么AI产生的网络可靠性预测值得怀疑。无论多么复杂,AI和ML工具仍然可以在关联的基础上工作。他们遍历大量历史数据,并可以据此做出准确的预测。问题在于,在进行这些预测时,它们也倾向于产生偏见。

过去几年中到处都有这种AI偏见的例子。分析人士指出,现在用于在医疗保健、司法甚至加密货币交易中,为决策提供信息的AI算法,可能会加剧偏见的模式并导致问题严重的社会结果。

人工智能偏见对网络安全的影响尚未得到很好的研究,但是不难理解人工智能偏见研究,在其他领域中产生的见解,并将其应用于计算机系统的安全性。

当然,所有这些AI系统(无论是在量刑方面还是在网络安全方面提供建议)都是能够比人类更快地产生信息的能力。本质上给人留下深刻的印象。问题在于,可能很难评估这些预测和建议的可靠性。

正如《麻省理工学院技术评论》最近指出的那样,偏差可能会以两种主要方式蔓延到AI系统中:要么向AI算法提供了非代表性的数据,要么当问题的代表性数据复制了现有的偏见时。

在AI评估我们的网络安全性的情况下,我们同时面临着两个问题:关于通用计算机系统中的威胁,我们没有足够的可标准化数据。甚至我们拥有的数据也无可避免地偏向了对人类分析家的安全威胁。

任何试图使用现有AI工具来识别网络漏洞的网络管理员,都将熟悉这些双重偏见的结果:大量潜在的安全漏洞可疑地看起来类似于由复杂得多,具有静态规则的系统所产生的漏洞。

换句话说,AI可能最终只是手工复制漏洞扫描过程。他们也许能够比一般人更快地执行这种分析,但是如果需要由操作员检查每个漏洞的可靠性,那么实际花费在修复网络漏洞上的总时间将保持不变。

更糟糕的是,由于AI工具将接受由人为主导的安全扫描生成的数据的培训,因此可能是我们向AI工具提供了我们多年来积累的偏见。

过去十年中,最好的安全分析师花了很多时间来重新学习,了解安全漏洞,即使对AI进行培训,他们在发现新的威胁方面也不会做得更好。

最终,一些分析家认为,我们将需要开发一种更加协作的方法来在网络安全中使用AI。人工智能将用于弥补安全漏洞,但不应依赖它们来发现系统的问题。

实际上,这种方法就是许多现实世界中的AI应用已经完成的工作。其中最成功的假设是,人类在某些事情上是出色的,例如创造性地思考和对新颖的威胁做出反应,而人工智能目前在一套完全不同的技能上也很出色,即遍历大量数据并发现模式。

由于技能上的差异,在未来一段时间内,对AI网络安全性的预测会产生一定程度的怀疑,这仍然很重要。

在其他许多领域,例如,刑事司法和股票交易中,对AI预测的可靠性水平仍然存在重大担忧,并且网络安全不应从此列表中排除。
编辑:lyn

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分