AI技术的潜在安全威胁和相关建议

电子说

1.2w人已加入

描述

外媒DefenseOne网站报道称,来自14家业界、学术界机构的26名人工智能专家撰写了《人工智能的恶意使用:预测、预防和缓解》报告。这份长达100页的报告指出AI技术是一把“双刃剑”,具有“双重用途”属性,即该技术能够每秒做出成千上万个复杂的决策,这种能力既可用于造福人类,也可用于扰乱秩序,完全取决于设计该系统的人。报告中,专家们探讨了现存的或可能在未来五年内出现的人工智能的恶意用例,及其所带来的潜在安全威胁,并将其分成数字威胁、物理威胁和政治威胁三组进行了研究,最后提出了更好地预测、预防和减轻这些威胁的方法。

1. AI技术的潜在安全威胁

(1)数字威胁:①通过自动钓鱼或创建虚假电子邮件、网站、链接等手段窃取信息;②通过自动发现软件漏洞进行更快速的黑客攻击;③利用人工智能对于外界的理解缺陷,欺骗人工智能系统。

(2)物理威胁:①利用商用无人机或无人驾驶车辆作为武器,实现恐怖主义的自动化;②机器人集群,即由许多自主机器人围绕共同目标开展行动;③远程攻击,由于自动机器人无需在任何设置距离内进行控制,因此得以实施远程攻击。

(3)政治威胁:①通过易于生成的假图像和视频进行宣传;②通过自动查找、删除文本或图像等技术自动清除异议;③个人观点说服,利用公开的信息针对个人观点进行说服。

2.相关建议

随着人工智能技术的日益强大和普及,报告预测,人工智能系统带来的威胁将不断变化,如现有威胁的扩大、新威胁的产生、典型威胁的特征发生变化等。为了应对不断变化的威胁环境,报告提出了四项高级建议:

(1)决策者应与技术研究人员紧密合作,调查、预防和减轻人工智能的潜在恶意使用;

(2)人工智能的研究人员和工程师应认真看待其工作的“双刃剑”性质,考虑误用等因素的影响,调整相应研究重点和规范,并在可预见有害应用程序时主动联系相关组织;

(3)对于能够成熟妥当地解决“双刃剑”问题的研究领域,如计算机安全等,应识别最佳实践案例,并将其引入人工智能领域加以应用;

(4)扩大利益相关方与领域专家的范围,积极探讨相关挑战。

此外,报告还建议在四个优先研究领域内探讨开放性问题和潜在的干预措施:向网络安全社区学习;探索不同的开放模式;营造负责的文化氛围;制定技术和政策解决方案。

报告指出,对AI双重用途的干预行动不仅需要人工智能研究人员和企业的关注和行动,还需要立法者、公务人员、监管机构、安全研究人员和教育工作者的关注和行动。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分