OpenAI、TikTok等公司联合签署AI指南,构建负责任的AIGC

描述

根据MIT Technology Review2023年2月27日报道,由人工智能研究非营利组织Partnership on AI (PAI)发起,OpenAI、TikTok、Adobe、BBC等在内的10家公司签署了一套新的AI指南,就如何负责任地构建和分享人工智能生成内容(AI Generated Content,简称AIGC)给出明确指导建议。

一、简介

PAI根据过去4年与工业界、民间社会、媒体和学术届的合作,广泛征集全球100多个利益相关者的反馈,制定本指南。该指南最重要的一点是,这些签署公司达成了一项协议,他们将着手研究一个重要问题:即告诉用户他们正在与人工智能生成的东西互动。

该指南呼吁技术的建设者如OpenAI,和合成内容的创造者和分销商如BBC和TikTok,以更透明的态度对待技术能做什么和不能做什么,以指导合成媒体负责任地开发和部署人工智能生成内容。目标受众为合成媒体技术和基础设施建设者、合成媒体创建者和合成媒体传播者。

二、指南主要内容

1. 合成媒体的技术和基础设施建设者包括B2B和B2C工具制造商、开源开发者、学者和合成媒体初创公司等,应采取措施为合成媒体的传播者提供披露机制;在开发代码和数据集、培训模型以及制作合成媒体时,尽可能应用简介披露元素;促进进一步研究,制定未来数据共享计划,平衡透明度和隐私保护等因素等。

2. 合成媒体创造者规模不一,既可是B2B内容生产者等大生产者,又可包括艺术家、业余爱好者和作家等小生产者,应就内容来源、使用规范和潜在风险对内容消费者保持透明;披露和公开其创造的合成媒体中的合成因素等。

3. 合成媒体传播者包括广播公司和社交媒体平台,应在检测到合成内容后,进行直接或间接披露;当认识到在不知情的情况下传播有害的合成内容后,应立即作出调整;避免传播来源不明的合成媒体内容;尊重创建者的知情权等。

三、各国的人工智能监管实践

生成式人工智能目前仍处于野蛮生长时期,面对生成式人工智能可能带来的潜在危害,各国家和地区陆续出台相关的管控和监管措施,例如欧盟试图将生成式人工智能纳入其即将出台的《人工智能法案》其中可能包括对深度伪造等技术的披露,以及要求公司满足某些透明度要求。

1. 欧盟:据预计,备受关注的欧盟《人工智能法案》将于2023年3月底在欧洲议会进行投票。随着大型聊天机器人软件ChatGPT的横空出世,大型科技公司即将在AI领域展开新一轮竞赛。与此同时,各国监管机构已经注意到了ChatGPT引发的现象级效应,也在关注这一技术的潜在风险。该法案将解决围绕ChatGPT和AI技术风险的担忧。

2. 中国:2022年1月28日,国家网信办最新公布了《互联网信息服务深度合成管理规定(征求意见稿)》,对作为元宇宙基石的深度合成技术做出了一系列较为明确的规定和指引,明确深度合成技术定义,划定深度合成服务提供者和使用者的责任和义务。

3. 美国:2023年1月26日,美国国家标准和技术研究院(NIST)发布NIST AI 100-1《AI风险管理框架1.0》(Artificial Intelligence Risk Management Framework,AI RMF),其目标在于为设计、开发、部署、应用AI系统的组织提供参考,以使之能够在控制多样性风险的同时,促进可信赖、负责任AI系统的开发与应用。同时,NIST出版了与之配套的AI风险管理框架行动手册、讲解视频等,协助理解和使用AI RMF。AI RMF具有自愿性、基于权益保护原则、普遍适用性等特征,从而能够为不同规模、不同领域乃至全社会的各相关组织提供参考。

人工智能技术具有广泛渗透性和颠覆性,带来的科技伦理与法律问题更加复杂多元,可能引发潜在伦理和法律风险,需要引起高度重视。人工智能的健康发展,必须回答人工智能到底该由谁掌控、人工智能发展的基本准则是什么、人工智能发展的禁区在哪里等问题,必须通过建立理性的伦理规则和法律规范为人工智能发展的风险防范设置“控制阀”,不断强调“人本视角”,确保其体现在AI开发的各个阶段中,让AI技术适用性更强、更具协作性、负面影响更小,让越来越多的人类受益于未来的技术进步。

审核编辑 :李倩

 

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分