是否真的可信霍金,再言人工智能机器人继续持续发展下去或将取代人类!

机器人

518人已加入

描述

  4月18日消息,霍金再发警告:人工智能时代即将来临,人类将被机器代替?霍金作为本世纪最杰出的科学家和天文学家,他在人工智能方面也是很有建树的,霍金不仅一次发声,声明人工智能将给人类带来危害,可是随着时间一点点的流逝,留给人类的事件不多了。近日,霍金再发警告,告诫人类即将被人工智能替代,如果没有有效的防范机制,对人类来说将会发生重大灾难。

  

  英国著名物理学家霍金(StephenHawking)再次就人工智能(AI)发声,他认为:“对于人类来说,强大AI的出现可能是最美妙的事,也可能是最糟糕的事,我们真的不知道结局会怎样。”

  英国当地时间10月19日,剑桥大学“莱弗休姆的未来智能中心(LCFI)”正是投入使用。霍金在庆祝典礼上发表了演讲。LCFI的一项重要使命是要化解AI风险,破解AI难题。

  “我们花了大量的时间来学习历史。”霍金说,“让我们面对现实,大部分的历史是愚蠢的。所以对于那些学习未来智能的人应该表示欢迎。”

  目前,人工智能在全球领域得到了各国政府的重视。但霍金一直对外称应该对AI持谨慎态度,提高警惕,因为人类有可能会因为自己建立的智能而灭亡。

  霍金在演讲中批评了人工智能的无节制发展,他认为,人工智能技术的确有希望带来巨大的福利,比如根除疾病和贫困,但是它同样也可能带来危险,比如强大的自主式武器,或者帮助少数人压迫多数人。

  “我们生活的每一个方面都会改变。总之,创造AI的成功可能是我们文明历史上最大的事件。”霍金说。

  剑桥LCFI中心的学术总监HuwPrice在接受《卫报》采访时称,中心的研究重点非常集中。“我们一直在尝试组织出现终结者这样的基因,但就像它的名字一样,它会不断的来来回回。”

  其实,这并不是霍金第一次就人工智能发出警告。在今年6月份,霍金在《拉里·金现场秀》视频访谈节目中,谈到了他对人类未来的担忧。

  他说:“我不认为人工智能的进步一定会是良性的。一旦机器到达能够自我进化的临界阶段,我们就无法预测它们的目标是否会与我们的一致。人工智能有可能比人类进化得快。我们需要确保人工智能的设计符合伦理,要有切实的安全措施。”

  这位物理学家一直对人工智能的风险安全问题直言不讳。更早前,他在接受英国广播公司采访也延续了一贯的理念:“全人工智能的出现可能给人类带来灭顶之灾。”

  除了霍金外,人工智能领域里的许多先驱都提出了人工智能的风险问题。硅谷“钢铁侠”马斯克也表达了对人工智能的担忧。他曾与霍金一起,建立了人工智能防范联盟。

  摩尔定律认为全世界的电脑运算能力每两年就翻一倍,这一定律有历史数据所支持,这同样表明电脑硬件的发展和人类发展一样是指数级别的。我们用这个定律来衡量1000美元什么时候能买到1亿亿cps。现在1000美元能买到10万亿cps,和摩尔定律的历史预测相符合。

  也就是说现在1000美元能买到的电脑已经强过了老鼠,并且达到了人脑千分之一的水平。听起来还是弱爆了,但是,让我们考虑一下,1985年的时候,同样的钱只能买到人脑万亿分之一的cps,1995年变成了十亿分之一,2005年是百万分之一,而2015年已经是千分之一了。按照这个速度,我们到2025年就能花1000美元买到可以和人脑运算速度抗衡的电脑了。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分