旷视《人工智能应用准则》人工智能能的持续发展方向在哪里?

描述

2019年7月17日,旷视正式全文公布基于企业自身管理标准的《人工智能应用准则》(以下简称《准则》)。《准则》从正当性、人的监督、技术可靠性和安全性、公平和多样性、问责和及时修正、数据安全与隐私保护六个维度,对人工智能正确有序发展作出明确规范,同时给出相应干预措施或指导意见,确保人工智能能够在可控范围内持续发展。

AI应用落地加速 善用科技是关键

旷视是全球最早一批探索人工智能商业化的拓荒者,从早期单一的识别应用发展到城市中各场景的智能改造,旷视的核心产品和软硬一体的全栈解决方案已经得到了全球数十万开发者和上千家行业客户的验证。作为世界级人工智能前沿企业,旷视希望以此为契机,发挥自身在规范人工智能应用方面的示范引领作用,履行自身的社会责任。

因此,旷视率先行业推出的《准则》,是旷视从客户角度出发,为持续实现客户和社会价值最大化的自我要求,旨在从人工智能企业自身的角度,规范、引导人工智能技术正确运用和健康发展,并确保其安全可控可靠。旷视也希望《准则》能够对人工智能行业起到示范作用,呼唤起各界对善用技术的重视,倡导行业提早建立可持续发展的生态。

《准则》全文如下:

《人工智能应用准则》

1.正当性:技术应该是一种正面的力量。我们致力于成为一个负责任的企业公民,遵守适用的法律和普遍接受的道德原则,增进社会福祉。

2.人的监督:人工智能不应该超越人的自主性。人类应该能够监督人工智能技术的发展以及人工智能系统的决策,并在必要时进行干预。

3.技术可靠性和安全性:人工智能解决方案应该能够做出准确有效的决策,同时对外部攻击具有足够的安全性和防御力。人工智能解决方案应该进行广泛的测试,谨慎使用并严格监控。

4.公平和多样性:人工智能技术的开发人员应尽量减少人工智能解决方案的系统性偏差,这种系统性偏差可能来自于用于开发解决方案的数据和算法中固有的偏差。无论年龄,性别,种族或其他特征如何,所有人都应该可以使用人工智能解决方案。

5.问责和及时修正:人工智能解决方案应该是可审核、可追责的。人工智能解决方案的错误、缺陷、偏见或其他负面影响,一经发现,应立即予以承认并积极地加以处理。

6. 数据安全与隐私保护:人工智能解决方案的开发及使用过程中,需严格保护用户的个人隐私、保障数据安全。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分