多样化的团队可以帮助减少偏见算法

电子说

1.3w人已加入

描述

与人工智能的好处一样强大,使用偏差数据和有缺陷的AI模型可能会造成很多损害。

斯坦福大学高级研究学者兼数字公民社会实验室主任露西·伯恩霍尔兹(图)表示,为了解决这一日益严重的问题,必须将人的价值观纳入整个数据科学过程。

她说:“ [价值观]不应成为单独的讨论主题。” “我们需要就以下内容进行对话:我们要为什么而努力,我们要保护谁,如何试图识别个人的人为因素,而这必须贯穿于整个数据科学之中。”

伯恩霍尔兹与之交谈索尼娅Tagare,theCUBE,SiliconANGLE Media的移动即时串流工作室主持人的女性数据科学大会在斯坦福大学,加州期间,。他们讨论了价值在数据科学中的重要性,为什么必须要有一个多元化的团队来构建和分析算法以及数字公民社会实验室正在开展的工作。

根据伯恩霍尔茨的说法,所有数据都是有偏见的,因为是人们在收集数据。她强调说:“而且我们正在将偏见建立到数据科学中,然后将这些工具导出到偏见系统中。” “你猜怎么着?问题变得越来越严重。因此,让我们停止这样做。”

Bernholz解释说,在创建算法并进行分析时,数据科学家需要确保他们正在考虑数据集中所有不同类型的人,并在上下文中了解这些人。

“我们非常清楚,有色女性与白人男性面临的环境不同;他们不会以同样的方式走遍世界。”她解释说。“而且认为您的购物算法不会影响他们在现实世界中所经历的差异是荒谬的。”

她补充说,还必须让参与算法创建以及公司管理的人员具有不同的个人资料,他们可以决定是否以及如何使用它们。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分