周志华:AI伦理研究将就加入南京大学人工智能学院

人工智能

636人已加入

描述

  人工智能技术已经渗透到人类生活的每个角落,我们在享受种种革命性便利的同时,也难掩隐忧——不远的将来,人工智能会不会破坏社会秩序和安全,给我们带来危险?

  “AI (人工智能)变得强大后,AI伦理就愈发显得重要!”在9月7日开幕的“江苏省人工智能大会”上,江苏省人工智能学会理事长、南京大学人工智能学院院长周志华教授透露,AI伦理研究,将会加入该院的课程体系。

  

  早期的人工智能,只能根据事先设定的程序完成一些需要进行大量计算的任务,比如下象棋、拼接图案、对图片分类、回答简单问题等等。如今借助深度学习、神经网络、物联网最新技术,一些人工智能设备实现了全自动化,能够自主推理解决现实生活中的问题。语言翻译、自动交易、人脸识别、无人驾驶等等都已通过人工智能实现。

  但是飞速发展的人工智能技术会不会有一天失控?是否会危害人类信息甚至人身财产安全?全球科学家早已开始了探讨和研究。

  未来生命研究院(FLI)推动提出“23条人工智能原则”,IEEE发起人工智能伦理标准项目并提出具体指南。联合国曾耗时两年完成机器人伦理报告,认为需要机器人和人工智能伦理的国际框架。欧盟也在推动制定针对机器人、人工智能的数据保护、数字权利和道德标准,甚至通过决议,针对人工智能民事立法。

  

  “当一个技术比较弱小的时候,大家犯不着去关心它的伦理,因为就算用来做坏事,也没有什么大的危害。只有当这个技术变得非常强大,大家才会担心将来会不会出问题。”周志华觉得,今天人们对待人工智能,有点像上世纪五十年代看待核能,既期望它大显神通,有心存恐惧。

  他说,现在学界有很多一流的学者,开始关注人工智能伦理,包括在美国卡内基梅隆大学这样的领先高校,都已经开始增设人工智能伦理方面的课程。“我们南京大学人工智能学院后面也会有类似这样的课程设置。”

  但是,研究人工智能的伦理问题,不能只局限于本专业的科学家,还应该包括社会科学专家、其它相关方面的学者都可以共同关心参与,一起来探讨这个新课题。

  作为人工智能技术的大咖,周志华经常拿生活中常见的菜刀和人工智能做对比。

  “人工智能技术,就好像比菜刀。本可以用来切菜,提供生活的便利,但是也有可能拿着菜刀害人。这不是刀的错误,而是用刀人的错误。”

  他强调:人工智能伦理研究的出发点,绝不是防备这项技术本身,而是预防这种技术被不怀好意的人滥用。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分