电子说
在经历了员工公开信和辞职抵制,以及外部声讨之后,谷歌终于在上周五决定退出军事 AI 项目 Project Maven ,紧接着,本周四也在官方博客正式公布了使用AI的七项原则,以及四条底线。
这些原则和底线是适用于公司在 AI 研究,特别是 AI 军事研究上的道德准则。Google CEO皮查伊说,虽然AI技术为消费者和企业提供了许多好处,但谷歌认识到,这项技术“将在未来几年对社会产生重大影响”,而且管理者“需要承担起确保其被正确使用的责任”。
七项原则
涉及AI的七项原则包括对社会有益,避免制造或加强不公平的偏见,提前测试安全性,对人负责,保证隐私,坚持科学高标准以及从主要用途、技术独特性等方面来考虑。对此,谷歌认为人工智能应用应该实现的目标如下:
1. 有益于社会
新技术的扩展对社会的影响越来越大。AI 领域的进展将对医疗、安全、能源、交通、制造业等大量行业带来革命性影响。谷歌考虑 AI 技术的潜在开发和使用,以及大量社会和经济因素,决定将继续进行其认为整体益处远远大于可预见风险和弊端的领域。
2. 避免创造或增强偏见
AI 算法和数据集能够反映、强化或减少偏见。谷歌意识到区分公平和不公平偏见不总是那么简单,且在不同文化和社会背景下有所不同。谷歌将寻求避免对人类的不公平影响,尤其是在敏感话题方面,如种族、民族、性别、国家、收入、性取向、能力和政治或宗教信仰。
3. 为保障安全而建立和测试
我们将继续开发和应用强大的安全保障和安全的实践以避免不希望发生的导致风险的结果。我们将把 AI 系统设计得适当的谨慎,并探索按照 AI 安全研究的最佳实践来开发的方式。在合适的案例中,我们将在受限的环境中测试 AI 技术,并在部署之后监控它们的运行。
4. 对人们有说明义务
我们将设计能为反馈、相关解释和上诉提供合适机会的 AI 系统。我们的 AI 技术将服从合适的人类指导和控制。
5. 整合隐私设计原则
我们将把我们的隐私原则整合进 AI 技术的开发和使用中。我们将为通知和准许提供机会,鼓励架构中结合隐私保护,并对数据的使用提供合适的透明度和控制。
6. 坚持高标准的科学探索
技术创新根植于科学方法和开放式的调查、严谨的思考、诚信和合作。人工智能工具可能在生物、化学、医药、和环境科学等关键领域具有开拓新科学研究和知识的潜力。我们致力于促进人工智能的发展,追求高标准的科学探索。
7. 根据原则确定合适的应用
许多技术有多种用途。我们将努力限制可能有害或滥用的技术应用。
四条底线
除了上面的目标,谷歌不会设计或者将 AI 应用到以下领域:
1.制造整体伤害之处。如一项技术可能造成伤害,我们只会在其好处大大超过伤害的情况下进行,并提供安全措施;
2.武器或其他用于直接伤害人类的产品;
3.收集使用信息,以实现违反国际规范的监控的技术;
4.目标违反被广泛接受的国际法与人权原则的技术。
各方评价
看见这份《原则》,不少Google员工给出了很愉快的评价。
Google现任AI负责人Jeff Dean除了在Twitter上分享Google发表的这份原则之外,还提到为了真正践行这些原则,他们还提出了一套技术实践指南Responsible AI Practices,指导科学家和工程师们在构建AI产品的时候应该注意什么。
DeepMind联合创始人Mustafa Suleyman自己没有发表观点,而是在Twitter上转发了人权观察组织(Human Rights Watch)Mary Wareham的话:各国政府应该关注到科技行业的最新动态,开始就禁止全自动武器展开协商,制定新的国际法规。
也有相关学者表示,建立一种明确而贯彻始终的标准来反对自身技术的武器化将有助于谷歌证明其捍卫国际客户和用户信任的决心。
值得一提的是,在谷歌提出的AI原则中,谷歌也表示将会继续与政府和军方展开AI合作,例如网络安全、军事训练、军队招聘、退役军人康复、搜寻救援等领域。
这时候,与以往一样,公共监督和不停的辩论,或许是确保人工智能公平部署,并产生对社会有益的方式之一。正如谷歌这次面对的情况一样,对于那些手握数据和技术的科技公司而言,它们必须要习惯于公众开始讨论技术使用的道德问题。
全部0条评论
快来发表一下你的评论吧 !