谷歌发布发布其安全人工智能框架

人工智能

635人已加入

描述

随着越来越多的组织开始采用生成人工智能(AI),谷歌(Google)希望我们都更加关注安全问题。为此,近日,这家科技巨头发布了其安全人工智能框架(Secure AI Framework,SAIF),这是一种安全路线图,尽管暂时只是一个粗略的路线图。

以下是该框架的六个“核心要素(core elements)”的摘要:

要素1和2是关于首先扩大组织现有的安全框架,将人工智能威胁包括在内。

要素3是关于将人工智能集成到防御人工智能威胁中,这令人不安地让人想起核军备竞赛,无论这是否有意。

要素4是关于人工智能相关“控制框架”中统一性的安全优势。

要素5和6是关于不断检查、评估和实战测试人工智能应用程序,以确保它们能够抵御攻击,并且不会使您面临不必要的风险。

目前看来,谷歌主要只是希望组织将基本的网络安全理念融入人工智能。正如谷歌云的信息安全主管Phil Venables告诉Axios的那样,“即使人们在寻找更先进的方法,人们也应该真正记住,你也必须掌握好基本知识。”

但随着像ChatGPT这样的生成性人工智能应用程序的出现,现在已经出现了一些新的、独特的安全问题。例如,安全研究人员已经确定了一个潜在的风险:“prompt injections”, 这是一种奇怪的人工智能利用形式,针对毫无戒心的人工智能聊天机器人插件的恶意命令在某个文本块中。当人工智能扫描prompt injections时,它会改变给人工智能的命令的性质。

prompt injections只是谷歌特别表示希望帮助遏制的新型威胁之一。其他还包括:

“Stealing the model”, 这是一种诱使翻译模型泄露秘密的可能方式。

“Data poisoning”, 即一个不良行为者故意用错误的数据破坏训练过程。

“Constructing prompts”,可以提取最初用于训练模型的潜在机密或敏感逐字文本。

谷歌关于SAIF的博客文章显示,这个框架正在被谷歌采用。至于“框架”的发布对更广泛的世界意味着什么,它可能基本上一无所获,但也可以作为一种标准。例如,美国政府的国家标准与技术研究所(NIST)在2014年发布了一个更通用的网络安全框架。这旨在保护关键基础设施免受网络攻击,但它也具有很高的影响力,并被大多数接受调查的IT专业人士公认为网络安全的黄金标准。
        责任编辑:彭菁

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分