ChatGPT业内“狂飙”,AI如何同步监管?

描述

近日,美国人工智能公司OpenAI推出的新型聊天机器人ChatGPT风靡网络,它强大的功能引起了社会的广泛关注,被称为AI“里程碑式”应用。各大企业纷纷投身于类ChatGPT应用的开发浪潮之中,但ChatGPT的“走红”也引发了人们对于人工智能监管问题的讨论。

ChatGPT仅发布两个月,其月活跃用户数就已达到1亿,一跃成为史上用户增长速度最快的消费级应用。一时间,微软、腾讯、百度、阿里等多家互联网科技公司先后发布了在ChatGPT领域的成果和技术布局,可谓“趋之若鹜”。ChatGPT快捷的回复和简单的操作,使得大量用户将其运用于查资料、写论文,而不仅仅是当作一个聊天工具使用。

然而,随着ChatGPT的应用范围越来越广,其隐含的风险也开始进入大众视野。尽管ChatGPT如今并不完美,但它仍然在刷新我们对人工智能发展的认知,AI安全需要立法监管。ChatGPT已经证实了人工智能获得了令人难以置信的发展,但同样也带来了法律与道德问题。

在知识产权方面,ChatGPT可能被用于生成论文与代码,引发知识产权侵犯及归属争议。在个人信息保护方面,ChatGPT对信息、数据来源无法进行事实核查,可能存在个人数据泄露、虚假信息传播等隐患。在数据安全方面,由于ChatGPT能够学习人类语言,在编写“钓鱼邮件”时,能够在语法和表达习惯上更具有迷惑性,如果利用不当,其造成的危害性后果难以估量。

从全球范围来看,各国政府均已开始关注人工智能发展过程中的种种伴生问题,人工智能领域法律法规的制定与实施也被提上日程。生成型人工智能系统创造了机会,同时也让我们面临具有历史意义的“十字路口”——究竟是人工智能控制人类,还是人类控制人工智能。

2022年12月,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》,并于2023年1月10日起施行。《规定》对类似ChatGPT等利用人工智能技术生成内容的应用服务提供者、技术支持者提出了一系列要求。

欧盟近期也计划更新尚未出台的人工智能法规——《人工智能法案》,预计该法案将于2025年生效。英国政府发布的《国家人工智能战略》指出,政府制定的治理和监管制度需要跟上人工智能快速变化的形势。

由于这项人工智能技术的两面性,我们不仅需要对算法进行监管,同时也要与数据监管相结合。如何保证生成式AI数据来源的准确性和隐私性,如何保护知识产权,如何及时修正AI不道德的言论导向,都是人工智能领域亟待解决的问题。

目前来看,人工智能的安全辅助作用仍需要相关部门进行审查和批准,ChatGPT的应用范围也应被限定。国家应当加强对人工智能的伦理规制,增强全社会的人工智能伦理意识和行为自觉,使人工智能既符合道德法律,符合公序良俗。在此基础上,采取逐步放开使用领域与应用深度的方式,探索人工智能的健康发展之路。

正如英特尔CEO 帕特·基辛格所说,人工智能已经催生了全球变革,并为我们提供了强大的工具。技术本身是中性的,我们必须不断地把它塑造成一股向善的力量。

审核编辑 :李倩

 

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分