一种新型数学方法,可遏制AI做出不道德的选择

电子说

1.2w人已加入

描述

人工智能,是由人制造出来的机器所表现出来的智能,是通过普通计算机程序来呈现人类智能的技术,人工智能正越来越广泛地应用于商业领域。

比如商家考虑使用人工智能来设置要出售给特定客户的保险产品的价格,为不同的客户设置不同的价格。这可以说是有正当理由的,但是“玩弄”客户的心理或购物意愿时常为的是可能会有利可图。

人工智能具有很多潜在的策略可供选择,这其中涉及到道德问题,有些策略不道德。这些策略不仅会带来道德上的损失,而且会带来巨大的潜在经济损失,因为如果利益相关者发现使用了这样的策略,他们将对其施加一定的惩罚,比如客户可能会投诉、抵制,还有监管者可能会惩罚高达数十亿美元的巨额罚款。

因此,在越来越多的决策无需人工干预而完全应用人工智能的情况中,无论是商家还是客户都有强烈的诉求,想了解人工智能系统在什么情况下可能采取不道德的策略,从而降低这种风险,或者在可能的情况下完全消除这种风险。

最近,由英国华威大学(University of Warwick)、帝国理工大学(Imperial College London)、洛桑联邦理工学院(Lausanne EPFL)数学研究所和沃里克大学数学学院的数学家和统计学家组成的一个研究团队,发现了一种数学方法,可以帮助监管机构和业务管理并监管人工智能系统偏向做出不道德、可能非常昂贵和破坏性商业选择的偏见,帮助企业和监管机构制定了新的“不道德优化原则”,并提供一个简单的公式来估算其影响。他们的题为“不道德优化原则”的论文发表在最近的皇家学会科学杂志上。

论文作者、华威大学数学研究所的罗伯特·麦凯教授说:“我们建议的‘不道德优化原则’可用于帮助监管机构、合规人员和其他人员找到可能隐藏在大型策略空间中的问题策略。可以期望优化会不成比例地选择许多不道德策略,对其进行检查应显示在哪里可能会出现问题,因此建议应如何修改人工智能搜索算法,以免今后避免使用它们。

该数学方法所体现的原则还表明,可能有必要重新考虑人工智能在非常大的战略空间中的运作方式,以便在优化与学习过程中明确拒绝不道德的结果。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分