AI赋能系统的安全风险不容忽视
随着人工智能技术在产业中的不断深化,AI系统已逐步成为企业关键业务的组成部分。与传统IT系统不同,AI系统具备“自学习、自决策”的特性,这也意味着它们在运行过程中可能面临更多非结构化、动态演变的风险场景。例如:
数据投毒:攻击者通过恶意干扰训练数据,诱导模型产生错误输出,影响系统决策。
对抗攻击:输入精心设计的对抗样本可欺骗AI模型,绕过安全检测或做出错误判断。
模型窃取与反向工程:AI模型作为企业核心资产,易成为攻击者试图复制、反推出模型逻辑的目标。
隐私泄露:模型训练过程中可能暴露敏感数据,触发GDPR等法规的合规风险。
系统不可控性:AI系统的不透明性与自适应行为,使传统安全检测难以奏效。
这些问题一旦发生,不仅可能导致企业数据资产受损、业务中断,甚至还会引发合规风险。因此,构建具备“可防御、可识别、可响应”能力的AI安全体系,已成为企业当前与未来不可回避的重要课题。
ETSI TS 104 223标准发布
为AI系统构建系统性安全框架
为响应日益突出的AI安全需求,欧洲电信标准协会(ETSI)于2025年4月正式发布了《Securing Artificial Intelligence (SAI); Baseline Cyber Security Requirements for AI Models and Systems》——ETSI TS 104 223标准。
ETSI TS 104 223标准通过以下方式增强 AI 系统的网络安全性:
数据治理:确保 AI 系统使用的数据来源可靠,防止数据中毒等攻击。
模型稳健性:增强 AI 模型对抗攻击的能力,如对抗样本和模型混淆。
透明性和可解释性:提高 AI 系统的透明度,使其决策过程更易于理解和审查。
责任分配:明确各方在 AI 系统安全中的责任,确保在出现问题时能够迅速响应。
持续评估和测试:定期对 AI 系统进行安全评估和测试,及时发现并修复潜在漏洞。
作为全球首个聚焦AI系统网络安全的标准体系,该标准通过三大核心亮点,为企业提供了清晰的建设路径:
13项核心安全原则:为AI系统的安全设计与实现提供了顶层指导。
72条可操作性要求:细化了在AI系统生命周期各阶段需要满足的具体安全要求,具有很强的落地指导意义。
安全生命周期管控:将安全考虑融入AI的规划、数据处理、模型开发、部署、运行维护等生命周期的每一个环节。
通过这些规范,标准旨在建立一个可信赖的 AI 安全生态系统,保护最终用户免受不断演变的网络威胁。
DEKRA德凯:专业AI安全评估合作伙伴
助力企业理解并实施ETSI TS 104 223
作为国际领先的第三方检验检测认证机构,DEKRA德凯紧跟AI领域前沿标准动态,现已推出覆盖 ETSI TS 104 223 的评估与测试服务,护航企业AI创新之路:
标准解读与差距评估:协助企业全面理解标准要求,并识别当前AI系统的安全弱点与改进方向。
技术测试与漏洞分析:通过实测方式检测数据安全性与系统防御能力。
整改建议与能力建设:指导企业通过架构优化、流程重建或技术加固,提升系统整体安全性。
DEKRA德凯不仅提供技术服务,更帮助客户构建长期可信的AI安全管理机制。通过引入ETSI TS 104 223标准体系,企业不仅能提升自身AI系统的安全水平,也能在信任、合规与责任方面,建立更坚实的基础。
关于DEKRA德凯
DEKRA德凯,百年安全保障的全球领导者。成立于1925年,DEKRA德凯旨在通过车辆检验确保道路安全。如今,DEKRA德凯已发展成为全球最大的独立非上市检验、检测和认证专家机构,覆盖广泛的行业领域。作为值得信赖的全球合作伙伴,DEKRA德凯凭借全面的服务和创新的解决方案,助力客户提升安全和可持续发展,践行百年庆典主题——“Securing the Future”。2024年,DEKRA德凯营业总额达到43亿欧元,业务遍布世界5大洲60多个国家和地区,逾48,000名员工致力于提供独立、专业的专家服务。DEKRA德凯连续荣获EcoVadis铂金评级,位列前1%的可持续发展公司之列。
全部0条评论
快来发表一下你的评论吧 !