谷歌:我们拒绝AI武器化,但仍会坚持和军方的AI合作

电子说

1.2w人已加入

描述

本周一的时候,我们曾报道过,谷歌员工对于 Maven 项目的强烈抵制已经引发了公司高层的关注,对此谷歌回应将尽快制定指导其参与军事项目的道德政策,并明确禁止 AI 武器化。现在,谷歌终于正式发布了新的 AI 准则。

今日,谷歌 CEO Sundar Pichai 公开发布了题为《AI at Google: our principles》的文章,明确了谷歌使用 AI 的七项原则。其中包括不会将 AI 技术应用于开发武器,不会违反人权准则将 AI 用于监视和收集信息,避免 AI 造成或加剧社会不公等等。“这些不是理论概念,而是具体的标准,将积极主导我们的研究和产品开发,并会影响我们的业务决策”。

但同时,谷歌也表示,仍会继续与政府和军方展开 AI 合作,例如网络安全、培训以及征兵等领域。

▌五角大楼合同为何会引发谷歌员工的强烈抵制?

谷歌的这份妥协要从去年的 9 月份说起。

李飞飞是新兴人工智能领域中最耀眼的明星之一,同时承担着两项艰巨的工作:斯坦福大学人工智能实验室的领导,和谷歌云服务人工智能的首席科学家。谷歌云服务是这家搜索巨头最有前途的企业之一。

而现在,公司通过云服务进行的下一步业务增长,已经让公司开始涉足武器行业。但是谷歌此前迅速增长的广告模型已经引发了业界对于谷歌的诸多批评,包括侵犯了用户的隐私权、支持可疑网站等等。

所以,去年 9 月公司高层紧张地讨论如何公开谷歌与五角大楼签订的第一个人工智能合约时,李博士就强烈建议避开这份合约。

她在给纽约时报的邮件中写道:“我们应该不惜一切代价避免所有涉及人工智能的协议。武器化的人工智能即便不是最敏感的话题,那也是数一数二的。这会给媒体机会让他们想尽办法破坏谷歌的名声。”

李博士对谷歌军事合同影响的担忧非常有先见之明。根据泰晤士报审阅的邮件、文件以及十几位前谷歌员工的访谈表明,自从谷歌拿下了 Maven 计划合约(该计划利用人工智能来破解视频图像,并用于提高无人机的攻击目标)以来,谷歌与国防部的“亲密”关系已经引发了一场生存危机。

关于 Maven 的内部讨论,支持者和反对者都知道这是未来和国防部达成更多、更大合同的敲门砖。但是很多员工认为,Maven 项目的成果可能会被用于杀人无人机,使得谷歌人工智能技术在战争中扮演越来越重要的角色。因此,约有 4000 名谷歌员工签名请愿,要求公司给出“明确的策略,保障谷歌及其合作者永远不涉及战争科技。”这场危机导致谷歌工作小组解散,对内部会议和信息交流的影响更是火上浇油,甚至还迫使一些员工辞职了。

位于伦敦的 AI 先行者 DeepMind(谷歌于 2014 年所收购)高层也表示,他们完全反对军事和监视项目,而且实验室的员工们已经对此表示了强烈抗议。DeepMind 与谷歌之间最初的收购合同即表明,DeepMind 的技术永远不允许被用于军事或监视用途。

此外,谷歌及其母公司 Alphabet 雇佣了许多世界顶尖的人工智能研究者。一些研究者加州 Mountain View 的一个名为 Google Brain 的 AI 实验室工作,其他研究者则分布在各个小组,包括 Alphabet 董事会成员 Greene 女士领导的云计算小组。

许多研究者都是来自于学术界,一些人还是教授。其中包括 Geoff Hinton,他曾经负责 Google Brain 在多伦多的实验室,但由于他不愿意为美国政府工作,现已辞去了职位。在上世纪八十年代末,Hinton 离开了美国回到了加拿大,部分原因就是他不愿意接受美国国防部的资助。

Jeff Dean 是谷歌最有资历的员工之一,他现在负责公司的所有人工智能工作。此前他曾表示,他已经签署了一封信,反对在自动武器中使用人工智能,这些武器能自动识别目标并在没有人类干预的情况下发射。

所以这些因为谷歌对于善意和无私的追求才加入公司的技术专家们,很有可能会“弄巧成拙”地帮助雇主研究如何更有效地杀人——这对于他们来说实在太震惊了,所以,如果谷歌坚持己见,AI 人才的流失几乎是不可避免的。

对于包括李博士在内的一些公司高层来说,这场危机让他们十分沮丧,因为他们既要面对道德高尚的科学家们,也要和极力推行国防部合同的销售人员沟通,这齐间的冲突难以调和。履行国防部合同会赶走人工智能方面最聪明的专家,而拒绝这个合同,则可能会带来巨大的商业损失。

但是,各种反对五角大楼合同的员工们分享出来的邮件和内部文档已经表明,一些可预见的异议和负面公关影响是无法避免的。不过也有支持者认为,像微软和亚马逊等竞争对手都在狂热地追逐利润丰厚的五角大楼合同,因为这些项目对于公司利益的增长至关重要,没有什么值得羞愧的。

事实上,在 Maven 项目是否应该公开这一点上,许多员工都发表了意见,但基本上他们都同意李博士的意见。李博士出生在中国,在 16 岁时同父母移民到了新泽西,在非英语的环境下成长并成为了科技界的领军人物。

李博士说,最终决定将由她的上司——谷歌云的首席执行官 Diane Greene 做出。但李博士认为公司应该公开它在 Maven 合同中的占有率,并将其作为 Google Cloud Platform 的“巨大胜利”来宣传。她还建议,在给项目定性时要“极其谨慎”,“如果媒体认为谷歌在秘密地制造 AI 武器,或研究能用于国防工业的武器的 AI 科技,我不知道会发生什么事情。”她在邮件中写到。

被问及 9 月份的邮件,李博士说:“我相信以人为中心的 AI 会以正面、善意的方式给人类带来好处。而任何将 AI 武器化的项目都违反了我的原则。”

事实证明,公司并没有公开 Maven。只有当员工开始抗议时,谷歌接受五角大楼合同的事情才被公布出来。显然,谷歌不可能在不引起公众注意的情况下悄悄地与国防部合作。李博士所希望的不涉及 AI 被证明不现实。谷歌在华盛顿的一名管理者 Aileen Black 说,“但我们可以把方向转变至云计算上来,我们需要在业界给我们定性之前做出转变。”

针对员工们的强烈抗议,谷歌向员工保证,会出台一系列原则,以在国防和智能方面的合同上就道德问题做出指导。上周四时,CEO Sundar Pichai 就表示,谷歌会出台一系列“经得起时间考验”的指导原则。

▌谷歌 AI 使用七原则

来自谷歌官方博客今日发布的这份声明表示,人工智能的应用将会对未来社会产生深远影响,作为人工智能领域的领导者,谷歌深感重任。因此,谷歌正式宣布了七项原则来指导公司今后的 AI 工作——Pichai 表示,这些具体的标准将积极主导谷歌的研究和产品开发,并会影响公司的业务决策。

以下为谷歌 CEO Sundar Pichai 所署名文章的部分摘选:

AI 的核心是可以学习和适应的计算机编程,它不能解决所有的问题,但拥有巨大的潜力改善我们生活。在谷歌,我们使用 AI 让产品更有用,从没有垃圾邮件并且更容易撰写的电子邮件,到可以自然对话的数字助理,再到突出有趣内容供你欣赏的照片。

我们认识到,人工智能如何开发和使用,将对未来多年的社会产生重大的影响。我们也意识到,这个领域是不断变化和不断发展的,我们将以谦逊态度对待我们的工作,我们也愿意随时间的推移调整我们的方法。

我们将根据以下目标评估 AI 应用。我们认为 AI 应该:

对社会有益。人工智能的进步将对包括医疗保健、安全、能源、运输、制造和娱乐在内的各种领域产生变革性的影响。我们将努力使用 AI 来随时提供高质量和准确的信息,同时继续尊重所在国家的文化、社会和法律准则。

避免制造或加强不公平的偏见。人工智能算法和数据集可以反映、加强或减少不公平的偏见。我们将努力避免造成不公正的影响,特别是与种族、民族、性别、国籍、收入、性取向、能力及政治或宗教信仰等有关的人。

建立并测试安全性。我们在设计人工智能系统时会保持适当谨慎,并根据人工智能安全研究的最佳实践寻求开发它们。在适当的情况下,我们将在受限环境中测试AI技术,并在部署后监控其操作。

对人负责。我们将设计能够提供反馈、相关解释和说明的 AI 系统。我们的 AI 技术将接受适当的人类指导和控制。

纳入隐私设计原则。在开发和使用 AI 时将融入隐私原则,提供通知和同意,鼓励具有隐私保护措施的架构,对数据使用提供适当的透明度和控制。

坚持科学卓越的高标准。人工智能工具有可能在生物学、化学、医学和环境科学等关键领域开拓科学研究和知识的新领域。我们将与一系列利益相关者合作,以科学严谨和多学科的方式来全面引领领域发展。

为符合这些原则的用途提供。我们在开发和部署 AI 技术时,将根据以下因素评估可能的用途:主要目的和用途、性质和唯一性、规模、谷歌参与的性质这四个方面。

除了上述目标之外,我们不会在以下应用领域设计或部署 AI:

已造成或可能造成整体性伤害的技术。存在重大伤害风险的情况下,我们只会在好处远远超过风险的情况下继续进行,并纳入适当的安全限制。

武器或其他主要目的是导致或直接造成人身伤害的技术。

收集或使用信息的技术违反国际公认的规范。

其目的与国际法和人权普遍接受的原则相违背的技术。

我们希望明确的是,虽然我们没有在开发用于武器的 AI,但我们将继续在其他许多领域与政府和军方合作,包括网络安全、培训、军人招募、退伍军人医疗、搜索和救援。这些合作是很重要的,我们将积极寻找更多方法来加强这些组织的关键工作,并确保服役人员和平民的安全。

长期的人工智能

随着人工智能技术的进步,我们将与一系列利益相关者合作,采用科学严谨、多学科方法提升这一领域的领导力。

我们将继续分享我们在改进 AI 技术和实践方面的经验。

对于谷歌的这份声明,外媒们也发表了不同的看法。

The Verge 评价称:

“多年来,群众们对于人工智能发展的批评一直都有。现在,硅谷公司已投入了更多的人工智能安全研究资源。然而,正如谷歌的新道德原则所表明的那样,制定足够广泛的规则以涵盖各种各样的场景是很困难的。所以,公共监督对确保人工智能的公平部署仍是十分必要的。”

The Washington Post 报道称:

“一位不愿透露姓名的谷歌代表提到,公司这几个月来一直在制定道德原则,并将聘请外部顾问进行内部审查,以确保 AI 准则得到执行。”

BI 评价称:

“此举力在解决谷歌正面临的平衡问题,一方面是想在云业务上与亚马逊、甲骨文和微软展开政府合同竞争,同时在寻求摆脱'不作恶'的公司信条。”

▌写在最后

但是一个不争的事实是,即使谷歌拒绝了,国防部也不可能放弃对人工智能的追逐。而且军事专家说,中国和其他发达国家已经在研究 AI 在国防中的应用了。利用人工智能,国防部可以对无人机成像进行更细致的分析,可以增加寻找并识别恐怖分子的能力,而且可以减少平民上网频率。

也许这也是此次谷歌仍不放弃与军方合作的一大原因。

谷歌联合创始人 Sergey Brin 就谷歌参与 Maven 项目一事曾回应,他理解这些反对的声音,他也和 Sundar Pichai 等内部高层就这个问题进行过深入的讨论。他认为,如果世界的军事力量能与谷歌这种国际性组织合作,而不是独立与那些国家主义的公司合作,反而对世界和平更有好处。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分