博世制定的AI规范怎么样

人工智能

617人已加入

描述

博世已经建立起使用人工智能的伦理 “红线”。日前,博世发布了在智能产品中使用人工智能技术的指导方针《AI道德准则》,其原则是必须保留人类对人工智能所做决策的控制权。在柏林召开的年度博世互联世界大会(BCW)开幕式上,博世首席执行官沃尔克马尔·邓纳尔博士表示:“人工智能是为人类服务的,博世的《AI道德准则》为员工开发智能产品提供明确指导。我们希望用户能够信赖博世的人工智能产品。”

人工智能技术对博世而言至关重要。到2025年,每款博世产品都将带有人工智能功能,或者在开发和生产过程中运用人工智能技术。博世的目标是让人工智能产品变得安全、可靠且可解释。博世集团首席数字官兼首席技术官 Michael Bolle博士强调:“只有当人们不再将人工智能视为神秘的‘黑匣子’时,信任的种子才会萌芽。而信任将是成就互联化世界不可或缺的要素。”博世致力于让其所生产的人工智能产品值得信赖。新发布的博世《AI道德准则》秉持“科技成就生活之美”的理念,将创新精神与社会责任相结合。博世计划在今后两年对近2万名员工进行人工智能培训。《AI道德准则》也会作为培训内容的一部分。

人工智能蕴藏巨大潜力

人工智能是全球经济发展和增长的驱动力。据咨询公司普华永道(PwC)预计,到2030年,人工智能将带动中国、北美和欧洲GDP分别增长约26%、14%和10%。这一技术不仅有助于克服气候行动带来的诸多挑战,而且能进一步优化在交通运输、医药和农业等多个领域所取得的成效。算法通过评估大量数据得出结论,以作为人工智能决策的基础。早在具有约束力的欧盟标准出台之前,博世就已决定以《世界人权宣言》体现的价值观为基础,积极应对人工智能技术使用过程中出现的道德伦理问题。

人类必须保留控制权

根据博世《AI道德准则》,人工智能必须在某种程度的人为介入或影响的条件下做出决策。也就意味着,人工智能必须始终作为服务于人类的工具。《AI道德准则》包含了三种机制,它们遵守着一个共同的原则,即博世开发的人工智能产品中,人类必须保留对人工智能所做决策的最终控制权。第一种机制为人工控制(human-in-command),适用于人工智能仅作为一种辅助工具出现的情境。例如,在决策支持系统中,人工智能协助人们对物体或生物进行分类。第二种机制为使用阶段的人为干预(human-in-the-loop),适用于人工智能系统可以进行自主决策,但人类能够随时干预其决策的情境。比如驾驶辅助系统,驾驶员可以直接干预停车辅助系统的决策等。第三种机制为设计阶段的人为干预(human-on-the-loop),适用于紧急制动系统等应用。开发此类智能产品时,专家将定义参数作为人工智能决策的基础,而人类不参与决策,由人工智能进行。但是工程师可以随时追溯检查机器是否遵守所设定的参数进行决策,必要情况下可以修改参数。

共建AI信任感

博世希望《AI道德准则》能够让社会各界参与到推进人工智能的探讨中。邓纳尔博士认为:“人工智能将改变我们日常生活的方方面面,所以展开多方探讨至关重要。”构建对智能生态的信任感不仅需要专业知识,还需要决策者、科学界和公众之间进行密切交流。为此,博世已经加入人工智能高级专家小组。该专家小组由欧盟委员会任命,负责审查人工智能涉及的道德伦理等问题。同时,博世在全球7个地点设立了人工智能中心,构建人工智能全球网络,并与阿姆斯特丹大学和位于宾夕法尼亚州匹兹堡的卡内基梅隆大学展开合作,致力于研究安全、可靠的人工智能技术。作为巴登符腾堡州“Cyber Valley”研究联盟的创始成员之一,博世将投资1亿欧元用于建设人工智能园区,该园区的700名专家将很快能够与外部研究人员和初创公司并肩工作。此外,由博世主办的的数字信任论坛将推动来自主要国际协会和组织的专家展开密切对话。该论坛的11个参与成员在2020年博世互联世界大会上会面。“打造安全、可靠的物联网是我们的共同目标”,Bolle博士补充道。

超过170位发言嘉宾和80多家参展商

博世互联世界大会于2020年2月19日至20日举办,80多家参展商共同聚焦互联世界并呈现最新发展趋势。博世首席执行官沃尔克马尔·邓纳尔博士、博世首席数字官兼首席技术官Michael Bolle博士、西门子副首席执行官博乐仁(Roland Busch),TÜV Süd管理委员会主席施特克芬(Axel Stepken)和微软云+人工智能集团执行副总裁斯科特•格思里(Scott Guthrie)等170多位嘉宾出席了本次大会并进行发言。大会主要议程包括主题演讲、大型展览和“黑客马拉松”活动。博世互联世界大会是全球规模最大的国际性物联网大会之一,今年是第七届。

博世《AI道德准则》概览

•博世所有人工智能产品都需体现“科技成就生活之美”的理念,将创新精神与社会责任相结合。

•人工智能是服务于人类的工具,任何可能对人造成影响的人工智能决策都需要人类的监管。

•博世希望打造安全、可靠且可解释的人工智能产品。

•信任是博世的核心价值观之一,我们想要做出值得信赖的人工智能产品。

•在开发人工智能产品时,博世以法律为基调,以道德为准绳。

责任编辑:ct

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分