要减少AI系统的偏见 我们本身就得减少一些偏见用词

人工智能

636人已加入

描述

AI正以相当显眼得方式重塑着我们的世界,数据驱动着全球数字生态系统,AI技术则揭示了数据中的模式。智能手机,智能家居以及智慧城市在影响着我们生活和交互方式,AI系统越来越多用于公司招聘、医疗诊断和司法裁决。这是一个乌托邦时代还是反乌托邦时代,全看你怎么看。

AI的潜在威胁早已被人说烂了,杀人机器人以及大规模失业,甚至还有人担心人类灭绝。而乐观主义者预测AI到2030年将会为全球经济带来15万亿美元的价值。

我们当然需要考虑AI对我们社会所带来的影响。其中一个引人注目的点是,AI系统加剧了现有的社会歧视。先进的机器翻译系统会产生性别歧视的输出,图像识别系统把黑人归分为大猩猩。

之所以会出现这些问题是因为,AI系统会采用类似于神经网络的数字模型来识别训练时候的数据。如果数据本身就是歪曲的,那么它固有的偏见就会自然地被训练过的AI系统学习和复制。这种带有偏见的自主技术是有问题的,因为他们会边缘化女性、少数民族以及老年人,从而加剧社会失衡。

如经典电影X战警,X战警在英文里是X MEN,用的是男性的单词,还有黑衣人Man in Black,同样也是用的男性的单词。尽管电影方已经开始意识到性别歧视问题,在电影中新增女性角色,或直接由女性演员接替成为主角,如Iron Man钢铁侠,虽然漫威宣布下一任钢铁侠是一位女性,但其名字仍然为Man而不是Woman。

要减少AI系统的偏见,我们本身就得减少这些偏见用词,虽然很不幸,我们不能完全消灭这些偏见,但我们必须要朝着这个方向前进,就像电影方一样。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 相关推荐
  • AI

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分