人工智能学习人类知识 但同时也能吸收人类的偏见

人工智能

636人已加入

描述

人们最初确实天真地以为,算法能比人类更能避免偏见。人工智能学习人类知识,同时也吸收人类偏见。这种担忧由来已久。但谷歌的一项新发明极大推进了人工智能从文本材料中学习的速度,也使解决机器偏见问题迫在眉睫。

10 月 25 日,谷歌宣布利用 BERT 来优化搜索引擎,已经使英语搜索结果的匹配度提高了 10% 左右。未来,谷歌还会推出学习其他语言和国家的算法。

BERT 是谷歌在 2018 年开发的一种基于神经网络的 NLP 技术,它能一次接收整句话,而非从左至右(或相反)逐字接收。这使得如果有人要搜“在没有路缘的山坡停车”,BERT 能认出“不要”,从而给出正确的搜索结果。而传统搜索引起只会关注“路缘”和“山坡”,给出与搜索意图相反的结果。

图 | BERT 能更好识别“在没有路缘的山坡停车”句子里的“没有”一词,从而理解人类意图

让人们担忧的是,BERT 的学习材料正来自数字化书籍和新闻文章。在 BERT 学会一切之前,人们没有时间来清理其中根深蒂固的偏见。而这些偏见一旦被算法吸收,将更难辨认,也更难清除。

“形象一下在 AI 世界长大的孩子。他们在谷歌搜索 CEO 照片,冒出的大部分是男性。他们又搜索个人助手,大部分是女性。”Kriti Sharma 在一次 TED 相关演讲中说。卡耐基梅隆大学的计算机科学家已研究证实,BERT 倾向于将程序员与男性联系起来。

另一位计算机科学家 Robert Munro 发现,展示给 BERT 100 个单词,包含马、婴儿、房子、珠宝等。BERT 会认为大部分与男性有关,仅妈妈是个例外。

“BERT 改变了一切,你可以教它所有技巧。”NLP 初创公司 Primer 的科学主管 John Bohannon 说。Munro 则认为,不平等现象一直存在,但有了 BERT,偏见就能够继续存在下去。

“是时候把算法当作人类设计的造物了。”人工智能批评人士 Kate Crawford 说,算法经常被看作是不带偏见、不可理解、勿需质疑的对象,但实际它会继承我们的偏见,它只可能跟我们一样好。

决策黑盒为偏见“藏污纳垢”

人们最初确实天真地以为,算法能比人类更能避免偏见。1970 年代,伦敦圣乔治医学院的 Geoffrey Franglen 博士着手编写一个算法来筛选学生的入学申请。他认为,如果所有学生的申请都要遵循完全一样的评估流程,结果就是公平的。

算法完成后与人类判断有 90% 到 95% 的一致率,因此被投入使用。但直到 4 年后,调查者才发现:算法会仅仅因为一个候选人没有欧洲名字(可能不是白人),就扣除 15 分。如果申请者是女性,又要被扣掉 3 分。

“从深层次看,算法只是在维持招生系统早已存在的偏见而已。”IEEE 的文章评论说,“圣乔治医学院之所以被逮住,是因为他们把偏见供奉到一个计算机程序里面,歧视是调查者可以验证的。”

但对于人工智能的黑箱式决策,情况变得更加复杂。性别或出生地在算法中并不对应单一可辨的参数,你很难给机器“定罪”。“在大工业时代,机器以暴露齿轮来展示强大。但如今,齿轮被隐藏起来,融入生活,无处不在,AI 就是这个齿轮。”一篇《福布斯》文章精辟地说。

在这种黑箱决策面前,反歧视法案可能也无能为力。Kriti Sharma 认为,如果 AI 帮人事主管寻找一位技术领袖,它会发现主管雇佣的大多是男性,从而以为男人比女人更容易编程。如果人类主管这样做,我们会愤怒,也能够阻止。“人工智能实际已凌驾于法律之上,因为是机器做的决定。”

更值得担忧的是,AI 决策可能放大了科技企业和数据标注者的权力,因为无人能监督。一个名为 ImageNet Roulette 的流行应用,曾故意向人们展示这种风险:它曾倾向于将非洲裔美国人标记为“不法分子”“罪犯”,此外还有“失败者”“初学者”“荡妇”这样的标签。

图 | ImageNet 展示了为人们打上刻板标签的权力,如何从拿低薪的标注者手中转移到算法上

它的训练数据来自 ImageNet 数据集,包含了 1400 张被标记的照片,而每张标记费用为几美分。因此标签标注者的偏见便被带入数据集,训练出各种算法,应用在形形色色的领域。“如果标注女性照片的人不选非二元人群或短发女性,那最终得到的人工智能就只认长发的女性模特。”

在被发现算法存在机器偏见时,谷歌和亚马逊都会承诺迅速解决。“我们发现的明显的偏见,但里面如果还有几个呢?”Bohannon 博士说。如果要依赖这种决策,“正如生物学家努力理解细胞工作原理一样,软件工程师也必须找到理解 BERT 系统的方法。”

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分