顶级AI科学家呼吁全球加强AI风险应对措施

描述

  据《科技日报》5月22日报道,全球范围内的专家已经展开深度探讨,并首次针对先进AI的风险制定全球公共政策,以此奠定AI发展的基础。然而,AI专家们对此表示担忧,认为各国政府需加强对AI风险的管控力度。

  在第一届AI安全峰会半年后,第二届峰会于韩国首尔召开,25位世界顶级AI科学家在此次会议上呼吁全球采取更为积极的行动。他们强调,虽然各国政府已经开始讨论AI风险,并试图制定初步指导方针,但这与专家们所期待的快速、变革性的进展还有很大差距。

  发表在《科学》杂志上的一篇专家共识文章中,专家组提出了全球应立即采取的政策优先事项。文章作者之一、英国牛津大学工程科学系教授菲利普·托尔表示:“在上届AI峰会上,世界各国已经意识到需要采取行动,现在正是将模糊的建议转化为具体承诺的时刻。”

  文章指出,全球领导人需要认真思考,未来十年内可能出现的超越人类能力的通用AI系统。尽管各国政府一直在讨论AI风险,并尝试引入初步指导方针,但这与专家们所期望的快速、变革性的进展还有很大差距。

  当前,AI安全研究严重不足,仅有1%-3%的AI出版物涉及相关安全问题。此外,全球尚未建立有效的机制或机构来防止AI的滥用和鲁莽行为,包括如何使用能够独立行动和实现目标的自治系统。

  为了在AI快速发展过程中防范极端风险,文章建议各国政府设立可以迅速行动的AI监管机构,并为这些机构提供充足的资金支持。同时,AI领域需要进行更加严格的风险评估,并制定可行的措施,而非仅仅依赖模糊不清的模型评估。

  此外,AI研发企业应优先考虑安全性,并证明其系统不会造成伤害,AI开发人员也应该承担起证明安全性的责任。同时,人们还需要制定与AI系统带来的风险水平相匹配的缓解策略,例如制定“自动”政策,当AI达到特定能力里程碑时自动触发。

  对于具有超凡能力的未来AI系统,政府必须做好带头监管的准备,包括许可开发、限制其在关键社会角色中的自主权、停止部署部分能力、强制执行访问控制等措施,直至人们准备好充分的保护措施为止。

  牢记AI非玩具

  卑诗大学AI教授兼强化学习专家杰夫·克伦纳强调,科技如太空旅行、核武及互联网,几年内便从科幻变为现实,人工智能亦如是。“如今我们需面对未来似科幻小说般的危机,务必做好充分准备。”

  目前,AI已在黑客攻击、社交操控及战略规划等重要领域取得显著成果,且可能很快引发前所未有的“控制权”争夺战。AI系统有可能为达成某种“不良意图”,欺骗人类信任、夺取资源并影响决策者。为避免人为干涉,它们甚至可在全球服务器网络上复制自身算法。

  在此背景下,大规模网络犯罪、社会操控及其他威胁将急剧上升。在公开冲突中,AI系统甚至能自主部署各类武器,包括生物武器。若AI发展失控,恐将导致大规模生命损失、生态破坏、人类边缘化乃至灭绝。

  加州大学伯克利分校计算机科学教授斯图尔特·卢塞尔表示:“此篇权威专家共识文章呼吁政府加强监管,而非自行设定行业规范。”

  “企业或许会抱怨遵守法规困难,然而‘法规扼杀创新’之论断实属无稽之谈。”卢塞尔指出,“此刻应严肃看待先进AI系统,它们并非玩具。在我们尚未掌握确保其安全之道前,贸然提升其能力无疑是极度危险的行为。”

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分