人工智能需要解决怎样的偏见问题?

电子说

1.2w人已加入

描述

随着人工智能的迅速发展,在帮助人类解决各种问题的同时,在应用过程中也出现越来越多此前从未考虑到的问题。

据报道,在中国天津举行的世界经济论坛新领军者年会上,人工智能和机器学习主管凯-弗思-巴特菲尔德(Kay Firth-Butterfield)称,两三年前,极少有人会提出使用人工智能的道德问题。

但是,她说,道德问题现在“开始变得突出”。“这一方面是因为我们在欧洲有一般数据保护法案在关注隐私问题,另一方面是因为一些人工智能算法存在明显的问题。”

偏见的认定:

机器人存在偏见?还是算法?

从理论上来说,机器人应该是没有偏见的。但是,近些年,有很多事情表明算法开始变得有偏见。

几年前,谷歌因其图像识别算法把非裔美国人识别为“大猩猩”而遭到了猛烈批评。今年初,有报道称,谷歌还没有解决这个问题,只是简单地阻止其图像识别软件来识别大猩猩。

类似的问题在不断地出现,这也表明了寻找到解决问题的方法刻不容缓。

而解决偏见的方法,必须确保两点:1.确保人工智能高速发展,为人类谋福利;2.同时解决人工智能在隐私、偏见、透明度和责任感等方面的道德问题。

中国科技行业:

培养的科技人才可一定程度上填补空白

而在讨论解决偏见的过程中,巴特菲尔德特别提到了中国科技行业。

她说,现在没有足够的人工智能工程师来满足行业内的需求。中国在努力培训更多的人工智能工程师和数据科学家,这可以在一定程度上填补科技行业的人才空白。

这足以见得,中国科技人才在未来解决人工智能偏见的这个全球性的课题上,发挥着重要作用。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分