据路透社报道,微软、谷歌以及OpenAI等16家全球科技巨头在5月21至22日举行的“人工智能(AI)首尔峰会”上,公开表态承诺进行AI模型的安全开发,并在无法有效控制最极端风险时,对其尖端系统进行关闭。
此次峰会上,与会公司还包含了中国本土的科技力量如智谱AI(IT之家备注:腾讯、阿里、美团和小米曾对其投资)、IBM、亚马逊、Meta及三星等知名企业。
此外,这些公司在会议中就安全性问题达成共识,包括发布明确的评估框架,用以衡量模型可能带来的风险。若风险严重且无法承受,人工智能公司将被迫按下紧急停止按钮,暂停模型和系统的开发或部署。
然而,这并非人工智能行业首次提出此类看似高尚却缺乏实际约束力的安全承诺。早在去年,亚马逊、谷歌、Meta及微软便已签署由美国政府推动的自愿保障措施,以确保其产品在上市前具备足够的安全性。
尽管如此,被誉为“人工智能教父”的计算机科学家约书亚·本吉奥对此类承诺表示欢迎,同时也强调自愿承诺需伴随着严格的监管机制。
全部0条评论
快来发表一下你的评论吧 !