电子说
人工智能(AI)和超级智能机器是人类可能发生的最好还是最坏的事情?自1940年代以来,这一直是一个问题,当时计算机科学家艾伦·图灵(Alan Turing)想知道并开始相信,有时机器可以通过模仿进化的过程对人类产生无限影响。
ADOBE STOCK
牛津大学教授尼克·博斯特罗姆(Nick Bostrom)的《纽约时报》畅销书《超级情报:道路,危险,策略》于2014年首次出版时,它聚焦于所有可能出错的地方,引起了这场辩论的紧张。但是,在我最近与Bostrom的对话中,他还承认人工智能技术具有巨大的发展潜力。
您可以在此处查看我们对话的完整视频:
今天在:创新undefined
自Bostrom在2014年撰写这本书以来,人工智能以及机器和深度学习的进步非常迅速。人工智能已经成为公众讨论的话题,大多数政府都制定了一些解决人工智能的战略或路线图。在他的书中,他谈到AI有点像孩子们玩的炸弹,随时可能爆炸。
博斯特伦解释说:“就我们的智慧而言,我们的成熟水平,我们作为一个物种进行合作的能力,另一方面我们利用技术来改变世界的工具能力之间存在着不匹配。就像我们变得比睿智变得更快更强大。”
没有后悔吗?:我希望我在大学里遵循的建议
各种各样令人兴奋的AI工具和应用程序开始以多种方式影响经济。这些不应被假设的未来点的过度宣传所掩盖,在该点上,您获得的AI具有与人类以及超智能机器相同的一般学习和计划能力。这是需要注意的两个不同的上下文。
如今,迫在眉睫的威胁不是来自超级智能,而是目前使用的有用的(但有潜在危险)应用程序AI。
如果我们专注于当今AI可能带来的影响,那么以下是我们应该考虑并计划的人工智能潜在的负面影响:
改变人类要做的工作/工作自动化:人工智能将改变人类的工作场所和工作。人工智能技术将失去一些工作,因此人类将需要适应变化并寻找新的活动,以为其提供工作所带来的社会和精神利益。
政治,法律和社会方面的后果:正如Bostrom所建议的那样,与其避免追求AI创新,不如说:“我们的重点应该放在使自己处于最佳位置,以便在所有方面都做好准备时,我们就做好了功课。我们“已经开发了可扩展的AI控制方法,我们对道德和政府等问题进行了认真的思考。然后进一步进行研究,希望由此产生非常好的结果。”如果我们的政府和商业机构现在不花时间制定规则,法规和职责,那么随着AI的不断成熟,可能会产生重大的负面影响。
人工智能引发的恐怖主义:人工智能将改变自动无人驾驶飞机,机器人群以及远程和纳米机器人攻击的战斗方式。除了关注核军备竞赛之外,我们还需要监视全球自动武器竞赛。
社交操纵和AI偏见:到目前为止,AI仍然有被制造它的人偏见的风险。如果训练AI的数据集存在偏差,则该偏差将影响AI动作。与2016年美国总统大选时一样,如果使用不当,人工智能可能会被用于社会操纵和扩大错误信息。
人工智能监视:人工智能的面部识别功能为我们提供了便利,例如能够解锁手机并无需钥匙即可进入建筑物,但它也启动了许多公民自由组织认为令人震惊的对公众的监视。在中国和其他国家/地区,警察和政府通过使用面部识别技术来侵犯公共隐私。博斯特罗姆解释说,人工智能从监视数据,摄像机和采矿社交网络通信中监视全球信息系统的能力无论好坏都有很大的潜力。
Deepfakes:AI技术使创建真实人物的“假”视频变得非常容易。可以在未经个人许可的情况下使用这些信息来传播假新闻,以实际上不参与其中的人的身份制造色情内容,并且不仅损害个人声誉,而且损害人们的生计。该技术变得越来越好,人们被它欺骗的可能性很高。
正如尼克·博斯特伦(Nick Bostrom)解释的那样,“最大的威胁是长期问题,引入了一些超级智能的根本方法,无法使其与人类价值观和意图保持一致。这是一个很大的技术问题。在解决安全和对准问题之前,我们已经成功解决了能力问题。”
如今,尼克将自己描述为“可怕的乐观主义者”,他对AI如果我们能做到正确就可以做什么感到非常兴奋。他说:“近期的影响是压倒性的。长期影响更多是一个悬而未决的问题,很难预测。如果我们做功课,并且在我们可以利用的任何时间里,我们越能成为一个世界和一个物种,我们在一起做的事情越多,我们为此做好的准备就越多,获得有利结果的几率就越大。在那种情况下,这可能是非常有利的。”
全部0条评论
快来发表一下你的评论吧 !