人工智能
人工智能技术已经渗透到人类生活的每个角落,我们在享受种种革命性便利的同时,也难掩隐忧——不远的将来,人工智能会不会破坏社会秩序和安全,给我们带来危险?
“AI (人工智能)变得强大后,AI伦理就愈发显得重要!”在9月7日开幕的“江苏省人工智能大会”上,江苏省人工智能学会理事长、南京大学人工智能学院院长周志华教授透露,AI伦理研究,将会加入该院的课程体系。
早期的人工智能,只能根据事先设定的程序完成一些需要进行大量计算的任务,比如下象棋、拼接图案、对图片分类、回答简单问题等等。如今借助深度学习、神经网络、物联网最新技术,一些人工智能设备实现了全自动化,能够自主推理解决现实生活中的问题。语言翻译、自动交易、人脸识别、无人驾驶等等都已通过人工智能实现。
但是飞速发展的人工智能技术会不会有一天失控?是否会危害人类信息甚至人身财产安全?全球科学家早已开始了探讨和研究。
未来生命研究院(FLI)推动提出“23条人工智能原则”,IEEE发起人工智能伦理标准项目并提出具体指南。联合国曾耗时两年完成机器人伦理报告,认为需要机器人和人工智能伦理的国际框架。欧盟也在推动制定针对机器人、人工智能的数据保护、数字权利和道德标准,甚至通过决议,针对人工智能民事立法。
“当一个技术比较弱小的时候,大家犯不着去关心它的伦理,因为就算用来做坏事,也没有什么大的危害。只有当这个技术变得非常强大,大家才会担心将来会不会出问题。”周志华觉得,今天人们对待人工智能,有点像上世纪五十年代看待核能,既期望它大显神通,有心存恐惧。
他说,现在学界有很多一流的学者,开始关注人工智能伦理,包括在美国卡内基梅隆大学这样的领先高校,都已经开始增设人工智能伦理方面的课程。“我们南京大学人工智能学院后面也会有类似这样的课程设置。”
但是,研究人工智能的伦理问题,不能只局限于本专业的科学家,还应该包括社会科学专家、其它相关方面的学者都可以共同关心参与,一起来探讨这个新课题。
作为人工智能技术的大咖,周志华经常拿生活中常见的菜刀和人工智能做对比。
“人工智能技术,就好像比菜刀。本可以用来切菜,提供生活的便利,但是也有可能拿着菜刀害人。这不是刀的错误,而是用刀人的错误。”
他强调:人工智能伦理研究的出发点,绝不是防备这项技术本身,而是预防这种技术被不怀好意的人滥用。
全部0条评论
快来发表一下你的评论吧 !