机器人
相信很多人都思考过人类未来与机器人的生活,这种设想早在上个世纪就已经开始了,机器人永远忠诚,而且他们拥有着极强的先进性和非常棒的身体素质,在未来可以代替人类的工作,而且还能与人类做朋友甚至恋人,这种生活让我们非常的向往。
不过这里面也遇到一个问题,那就是机器人相比较于人类有着很大的优越性,那么未来人类如何能够与他做到平等的和平相处呢?当年阿西莫夫和后来的机器人学的科学家们提出了机器人三大定律,也就是说,让机器人在保证自身安全的小前提下,确保不得伤害人类和帮助人类这两个大前提。
这机器人三大定律一直认为是未来人与机器人和谐相处的金科玉律,也被当成是人与机器人和平共处的防火墙,但是这个理论真的能够在未来约束机器人吗?
有一些反对机器人学的科学家提出了一个有趣的猜想,那就是假若在未来机器人和人类成为了好朋友,当某一天他遇到了警察与小偷发生枪战,在两边生命都遇到危险的情况下,那么请问机器人到底是应该帮助警察还是应该帮助小偷呢?
很明显在一个法律角度上来看,机器人应该帮助警察去收拾掉小偷,但假若在机器人学的三大定律上,机器人必须确保每一个人的生命安全,哪怕小偷也是如此,那么在这种情况下,机器人就会陷入到选择的混乱之中,他既要帮助警察,又要帮助小偷,而且他还不能造成两者之间谁的伤害,所以他就只能拿着自己去挡在前面两人之中的子弹,但最终结果依旧会是导致小偷逃跑。
所以机器人在面临这种复杂的现象的时候,人类的逻辑其实未必适用于机器人,如果我们只让他冷冰冰的执行命令,那么,很有可能它会侵犯到人类的生命,因为法律是冷冰冰的,而且没有弹性的,假如我们给了他充分的自主权,那么她在情感的演绎上很有可能会产生自我的逻辑,摆脱人类的逻辑性,就好像我与机器人这部电影中一样,机器人最终独立。
所以我们在这个前提下再来看机器人学的那些研究,其实我们会发现机器人,如果光凭人类的逻辑来约束他,根本是做不到的,我们只能用更多的引导来促进人与机器人未来的和平相处。
全部0条评论
快来发表一下你的评论吧 !