电子说
当我们在媒体报道和会议报告看到“人工智能伦理”时,大概率也会看到“人工智能治理”这个词。有趣的是,这些报道关于人工智能伦理的讨论非常多,却很少提及和厘清“人工智能治理”的内涵和范畴。
关于人工智能治理有三个简单却重要的问题尚无答案:第一,“人工智能治理”的定义是什么。虽然我们知道“治理”这个词的含义,但人工智能治理到底要做什么,怎么做并不清楚。
第二,组织中(政府组织或者商业组织)哪些主管或职能部门负责人应该直接承担人工智能治理的责任。
第三,如何考核和追踪人工智能治理情况。这三个问题恰恰是一个组织在人工智能治理实践中面临的最基本的问题,而其具体内容的缺失导致人工智能治理落地实践上面临着很大的挑战。
目前,这三个问题没有得到充分讨论,究其原因,大概有以下三点:第一,众多机构和国际会议更多停留在人工智能议题探讨阶段,较少能够真正出台相关的治理报告和倡议。
第二,行业参与者经常将人工智能治理与人工智能伦理这两个概念混用,误以为伦理道德标准的制定即为治理。
第三,即使是已经出台的人工智能的相关治理报告和倡议,亦缺乏进一步更为明确的治理路径与方案,难以推动具有共识性和约束力的全球治理机制的产生。
因此,尽管许多企业都编纂了人工智能伦理准则,但它们如何(或是否能)转化为日常的工作准则并不清楚。根据德勤的调查,32%的受访者将人工智能伦理列为人工智能的三大风险之一,但大多数公司并没有处理人工智能伦理风险的具体方法。比如,基本上所有的人工智能伦理准则都提及人工智能要公平,不能歧视特定的人群,绝大多数的公司也能认可这一准则。但是在落地实践上,员工很难理解具体工作中应该如何执行这一准则,这其中有太多的模糊性和主观性。
事实上,有研究表明,仅仅是熟悉和了解道德准则本身并不会直接改变员工的行为。为了让人工智能伦理准则能够确实指导员工的行为,其治理实践必须要有一整套相对应的制度设计和安排,并且将这套制度深度融入到整个组织的系统结构中。商业领域的公司治理主要通过正式与非正式、内部与外部的机制确保以公司利益和股东利益最大化的目标,比如独立董事制度,股东投票制度等。类似的,人工智能治理的具体范畴应该是在人工智能伦理的标准下,对管理和执行人工智能伦理规范的制定,以及后续的维护、监管、问责等具体机制的建立和执行。同时,正如人的理性认知是动态变化的,人工智能治理的内容也是一个协调多个利益相关方且持续互动的过程。此外,不同的公司文化、现有的组织架构、数字化成熟度以及风险承受能力同样也会影响人工智能治理框架。
综上所述,随着人工智能技术社会影响力的增大,人工智能治理要落到实处就需要厘清和建立具体的、可执行的制度安排。因此,下一步,人工智能治理实践将会经历从人工智能伦理讨论到人工智能治理机制落地的加速演化的过程。
责任编辑:YYX
全部0条评论
快来发表一下你的评论吧 !