人工智能偏见难以消除 如何解决人工智能系统的公平性问题

电子说

1.2w人已加入

描述

  许多行业正转向机器学习等人工智能(AI)技术来审查大量数据,这并不奇怪。无论是分析财务记录,检查一个人是否有资格获得贷款或法律合同中的错误,还是确定一个人是否患有精神分裂症;人工智能让你得到了保障!然而,这完全是万无一失的还是不偏不倚的?这种现代科技能像人类一样容易产生偏见吗?

  偏差风险因业务、行业和组织而异。他们可以通过多种方式进入人工智能系统。例如,它可以被有意地通过隐形攻击引入人工智能系统,也可以被无意地引入到人工智能系统中,这样就很难被人看到或发现。这也可能是由于人类输入了反映他们有偏见思维的已经有偏见的数据,或者是由于数据采样的偏见。当训练数据中缺少某些类别时,我们也会出现长尾偏差。

  很明显,数据中的偏差会导致人工智能模型产生偏差,但更危险的是,模型实际上会放大偏差。例如,一个研究小组发现67%的做饭的人是女性,但该算法将84%的厨师标记为女性。深度学习(另一种人工智能技术)算法正越来越多地被用于做出影响生活的决定,比如招聘员工、刑事司法系统和健康诊断。在这些场景中,如果算法由于AI偏差而做出错误的决策,那么从长远来看,结果将是毁灭性的。

  例如,2016年,一家非盈利新闻机构Pro Publica公司对由人工智能COMPAS支持的风险评估软件进行了批判性分析。COMPAS被用来预测一个囚犯或被指控的罪犯如果被释放的话会犯下更多罪行的可能性。据观察,黑人被告(错误率为45%)的假阳性率(标记为“高风险”,但没有再次犯罪)几乎是白人被告(错误率为24%)的两倍。除此之外,由于种族、性别和种族的原因,人工智能工具还存在多个错误分类/错误标记/错误识别的例子。就像在同一年美女.AI该网站聘请人工智能机器人担任选美比赛的评委,发现浅肤色的人比深色皮肤的人更具吸引力。

  重要的是要揭示无意中的人工智能偏见,使技术工具与商业领域的多样性、公平性和包容性政策和价值观保持一致。根据普华永道2020年的人工智能预测,68%的组织仍然需要解决他们开发和部署的人工智能系统的公平性问题。

  通常,机器学习、深度学习模型通常分为三个阶段:训练、验证和测试。尽管在数据收集之前以及在深度学习过程的许多其他阶段,偏见会潜移默化,但偏见在训练阶段会影响模型本身。一般来说,线性回归、线性判别分析和logistic回归等参数算法容易产生高偏差。随着人工智能系统越来越依赖于深度学习和机器学习,由于它们的有用性,解决人工智能偏见可能会变得更加棘手。

  虽然偏见正在加速解决,但关键的挑战在于界定偏见本身。这是因为对一个开发人员或数据科学家来说听起来有偏见的东西可能并不意味着对另一个的偏见。另一个问题是“公平”应该遵循什么准则——在人工智能模型中是否有任何技术方法来定义公平?另外,需要注意的是,不同的解释会造成混乱,不能每次都满意。此外,确定数据集中不同子组的错误率和准确度是至关重要的。接下来,数据科学家需要考虑社会背景。如果一个机器学习模型在刑事司法场景中完美地工作,它并不意味着它将适合于筛选求职者。因此社会背景很重要!

  毫无疑问,选择多样化的数据可以减轻人工智能的偏见,通过为更多的数据接触点和指标提供空间来迎合不同的优先级和见解,这是不够的。同时,特定群体的代理的存在,使得很难建立一个深刻的学习或任何其他人工智能模型,知道所有潜在的偏见来源。

  最后,并非所有人工筹码偏见都有负面影响。在这种情况下,可解释人工智能(XAI)可以帮助辨别模型是使用好偏差还是坏偏差来做出决策。它还告诉我们在模型做出任何决策时哪些因素更重要。虽然它不会消除偏见,但它肯定能让人类用户理解、适当信任和有效管理人工智能系统。

  编辑:hfy

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分