人工智能
导语:亚马逊与国家科学基金会合作,投资千万美金开发AI公平性系统,实现人工智能系统更广泛的接受度。
智东西3月26日消息,亚马逊昨日宣布将与美国国家科学基金会(NSF)合作,在未来三年内投入1000万美元的研究经费,开发专注于人工智能和机器学习公平性的系统。
亚马逊Alexa AI 团队的自然理解副总裁 Prem Natarajan 表示,人工智能的普及使其公平性问题在学术界、政府部门和企业界都变得越来越重要,公平性问题对于建立和维护客户的信任也是至关重要的。
为实现人工智能系统更广泛的接受度,亚马逊与NSF的合作将针对人工智能的可解释性、潜在的不利偏见和影响、缓解策略、公平性验证以及包容性考虑。美国将继续发挥人工智能技术的潜力,希望到5月10日他们接受的人工智能公平性验证提案能够带来新的开放源码工具、公开可用的数据集和出版物。
亚马逊将为该计划提供部分资金,NSF根据其绩效评估流程独立地做出奖励决定。 该计划预计将在2020年和2021年继续进行,并附加征集意向书。
美国国家科学基金会计算机和信息科学与工程负责人Jim Kurose表示,与亚马逊合作进行人工智能公平性研究将支持有关开发和实施可靠的人工智能系统的研究,这些系统从一开始就将透明度、公平性和问责制融入设计中。
亚马逊与国家科学基金会合作的消息发布后,越来越多的企业、学术机构和行业协会开始加入,进行人工智能道德研究。他们的共同工作已经产生了算法偏差缓解工具,这些工具有望加速向更公正的模型迈进。
去年5月,Facebook 发布了公平流程,如果算法根据种族、性别或年龄对某人做出不公平的判断,它会自动发出警告。埃森哲咨询公司发布了可以自动检测AI算法偏差的工具包,为数据科学家减轻算法偏差提供帮助。微软也在去年5月推出了自己的解决方案,同年9月谷歌推出了 What-If 工具,这是 TensorBoard 网络仪表板上的一个偏见检测功能,用于 TensorFlow 机器学习框架的网络仪表板的偏置检测功能。
IBM也在去年秋天发布了AI Fairness ,这是一款基于云计算的全产品,可以帮助了解AI系统如何做出决策并给出调整建议——例如算法调整或平衡数据。最近IBM的Watson和Cloud Platforms小组的研究重点是减轻AI模型中的偏差,特别是在面部识别方面。
麻省理工学院的研究人员发现 Rekognition ——亚马逊网络服务(AWS)的目标检测 API——无法可靠地确定特定情况下女性和深肤色面孔的性别。在2018年进行的实验中,Rekognition 的面部分析功能错误地将女性的照片识别为男性,将深色皮肤的女性的照片识别为男性的比例分别为19% 和31% 。
亚马逊对研究结果提出异议,对于实验结果是否准确仍存在争议。亚马逊表示在Rekognition更新版本的测试中,所有种族的性别分类准确性“无差异”,并提出研究结果的论文没有清楚地说明实验中使用的置信阈值。
全部0条评论
快来发表一下你的评论吧 !