许多AI系统都使用有偏数据进行训练

电子说

1.2w人已加入

描述

  人工智能系统仅与我们放入其中的数据一样好。错误的数据可能包含隐含的种族,性别或意识形态偏见。许多AI系统将继续使用不良数据进行训练,这将成为一个持续存在的问题。但是我们相信可以克服偏见,并且能够解决偏见的AI系统将是最成功的。

  对于人类和机器而言,至关重要的原则是避免偏见并因此防止歧视。AI系统中的偏差主要发生在数据或算法模型中。在开发我们可以信赖的AI系统的过程中,至关重要的是使用无偏数据开发和训练这些系统,并开发易于解释的算法。

  随着人类和AI越来越多地共同做出决策,研究人员正在研究确保人类偏见不影响用于告知这些决策的数据或算法的方法。

  麻省理工学院-IBM Watson AI实验室致力于共同繁荣的努力,借鉴了AI和计算认知建模的最新进展,例如道德的契约方法,以描述人们在决策中使用的原则并确定人类的思维方式。目标是制造在决策过程中应用某些人类价值观和原则的机器。IBM科学家还设计了一个独立的偏差评估系统,可以确定AI系统的公平性。

  识别和缓解AI系统中的偏见对于在人与学习机器之间建立信任至关重要。当AI系统发现,理解并指出决策中的人为矛盾时,它们还可以揭示我们偏partial,狭och和认知偏见的方式,从而使我们采取更加公正或平等的观点。在认识我们的偏见和教导我们关于共同价值观的过程中,我们可能会比AI进步更多。我们可能会改善自己。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分