×

人工智能警告的描述

消耗积分:0 | 格式:rar | 大小:0.05 MB | 2017-09-20

分享资料个

  在***的一篇评论文章中,在去年的TED演讲中,作家、Allen人工智能研究所CEO Oren Etzioni博士建议应该对阿西莫夫的机器人三定律进行更新。鉴于Elon Musk(和其他人)的警告引起广泛的媒体关注,这些更新可能值得业界思考。

  关于人工智能的警告

  上个月,马斯克等来自26个国家的人工智能专家共同致信联合国,要求禁止开发和使用自主武器。除了马斯克之后,签署***的还包括DeepMind联合创始人Mustaga Suleyman以及其他100多位机器人及人工智能公司的高管。他们写道,人工智能技术已经足够发达,未来数年内自主武器就可能出现在战场上,国防工业的诸多专业人士表示,在继火药和核武器之后,自主武器将引发第三次战争革命。

  

  ***最近播出了另一个更大的政治警告:俄罗斯总统普京在对一群俄罗斯学生演讲时,称“人工智能不仅是俄罗斯的未来,也是整个人类的未来,谁成为这个领域的领导者,他也将成为世界的统治者。机遇和威胁巨大,但现在难以预测。”

  阿西莫夫的机器人三定律

  1942年,阿西莫夫在短篇小说“Runaround(环舞)” 中提出了机器人三定律:机器人不得伤害人类,或因不作为使人类受到伤害;除非违背第一定律,机器人必须服从人类的命令;除非违背第一及第二定律,机器人必须保护自己。

  后来,阿西莫夫加入了一条新定律:第零定律,机器人不得伤害人类整体,或因不作为使人类整体受到伤害。

  Etzioni的更新规则

  

  在《***》的评论文章中,Etzioni提出了对阿西莫夫机器人三定律的修改建议:

  人工智能系统必须遵守适用于其操作人员的所有法律条文;

  人工智能系统必须明确表示它不是人类;

  未经信息来源明确许可,人工智能系统不能保留或披露机密信息。

  Etzioni提供的这些更新开始了一场讨论,并引起联合国发布了一本非科幻的机器人手册,比2058年的科幻时代更早。这是一个可以规范而不是阻挠已经在发展的全球AI业务。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

评论(0)
发评论

下载排行榜

全部0条评论

快来发表一下你的评论吧 !