人工智能越来越无所不能,人类该如何自处?

电子说

1.3w人已加入

描述

广被诟病的用户协议、合成视频存在的安全问题……ZAO从爆红到质疑缠身,只用了不到24小时。从人脸合成技术诞生的那一天开始,人们就没有停止过对技术被人利用作恶的忧虑。

此次对ZAO的担忧,也折射出潜藏在每个人内心的那个疑问:如果人工智能越来越无所不能,人类该如何自处?在新一轮的产业变革中,人类的隐私和其他权益究竟如何保护?

从一键换脸到深裸,科技伦理屡受冲击

曾经刷屏的类似应用软件不止ZAO一款,还有脸萌、足记、天天P图……与ZAO一样,这些应用大多与图像相关,许多也需要用户上传个人照片,但是从未引起如此大规模的争议。

据了解,能够合成视频是ZAO引爆公众讨论的关键。在此之前,图像App的玩法都是基于静态的照片,ZAO则第一次将视频换脸技术带到了普通大众的手机里。

中国科学院神经科学博士刘耀文向《法制日报》记者介绍说,人工智能相关应用在过去几年迅猛增长,其中人脸识别是应用范围比较广的技术之一。如今在金融、安防、考勤等领域,人脸识别已被大量应用。比如,当用户向互联网金融公司借贷时,平台首先需要做的是“验证你是你”,由于与钱财直接相关,拦截伪造的人脸攻击就变得至为重要。

因此,这次刷屏的合成视频便触到了许多人的心理底线:当视频也可以被伪造,还有什么可以确保真实?

其实,换脸技术本身并不新奇。2016年上映的《星球大战外传:侠盗一号》还原了1977年《星球大战4》中总督塔金的角色,但其扮演者彼得·库欣早在22年前就已去世,特效团队为此找来一位长相酷似彼得的演员进行面部表情捕捉,然后用计算机动画技术将塔金复活。不过,出品方卢克斯影业和迪士尼均表示,在制作《星球大战外传》时已经取得了彼得家人和产权继承人的同意。

将换脸推到风口浪尖的是一系列融合了AI技术的“假视频”。

2017年12月,一个名为“深度伪造”的用户在美国某论坛上发布了多段***。他让电脑软件学习好莱坞女星的图像资料,然后把女星的面部移植到色情片女主角脸上,引发大量讨论和抨击,最后以账号被封告终。

不过,AI换脸并未消失。用户“深度伪造”随后直接开源了项目代码,更多效仿者随之而来,为了纪念他,便用他的名字代称“AI换脸”技术。

据媒体报道,今年6月13日,美国众议院情报委员会召开关于人工智能深度伪造的听证会,公开谈论了深度伪造技术对国家、社会和个人的风险及防范和应对措施。美国外交政策研究所研究员克林特·瓦茨认为,深度伪造技术对美国2020年大选具有潜在威胁,若放任伪造视频扩散,则会对美国民主选举产生不良影响,挫伤选民的积极性。

就在听证会结束后不久,一款名为DeepNude(深裸)的App再次把AI技术应用中的法律伦理问题推到台前:只要给它一张人像照片,等待30秒,就能得到一张裸照。由于风险超出可控范围,研发团队在产品上线几天后便匆忙将这款产品下架。

美国斯坦福大学计算机科学教授、“百度大脑”原负责人吴恩达也公开批判,称“DeepNude是AI技术最糟糕的应用之一”,AI技术的超级力量应该被用到推动世界发展的项目中。

在业内人士看来,AI换脸技术是成熟的,之所以没有被推广,就是因为还有很多法律、伦理问题没有讨论清楚。

各方合作共同治理,健全法律防止失范

上个月,央行科技司司长李伟就曾警示AI人脸识别技术可能带来的新风险,他说,“人脸支付的时候,一刷脸钱就没了,很可怕。银行卡可以揣在兜里,脸是平常露在外面,识别出来非常容易,现在有的技术可以在3公里之外识别你的人脸。”这句话道出了AI应用对公共安全带来的隐忧。

此次,换脸软件ZAO将人工智能时代的隐私问题暴露得更加彻底,甚至有评论直言,当人类制造的技术越来越强大,甚至无所不能,人类本身的领地和独特性如何维护便成为值得思考的问题。如今,人工智能的发展渐成加速之势,这个情况甚至超出了不少人最乐观的估计。

“对于打开了潘多拉魔盒的看法我是认可的,诸如ZAO此类的换脸软件,国外几年前就出现了,之后便被禁止。这个实际就是机器学习算法,对运行系统等各方面要求都挺高的。类似换脸应用出现是将技术平民化,使用门槛降低,让普通人都能使用,但可能会出现很严重的侵权行为。”刘耀文说。

因此,在受访的业内人士看来,对于AI应用场景安全的讨论,不能只局限于民事侵权。

在技术至上派的人看来,如果人工智能技术能够持续进步并广泛应用,特别是人类可以制造出真正能推理和解决问题、有知觉甚至自我意识的强人工智能机器的话,将给人类社会带来巨大的好处。

从现实情况看,人工智能技术的发展确实也已经为人类带来实际回报。但得到这些好处并非没有代价,ZAO引发的争论只是人工智能技术B面的一小部分,面对这股强大且未知的力量,围绕人工智能伦理的探讨从未停歇。

“更积极的讨论还得基于AI技术的伦理,对其研究开发与应用行为进行规范,通过健全法律法规、健全必要的监管,实行前置的管理,防止失范失控。”采访中,中国传媒大学政法学院法律系副主任郑宁说,比如,AI应用技术应当符合正当有益的原则,应用则需要满足起码的安全保护、隐私保护等条件,形成健全清晰的规则。对于AI换脸来说,如果有前置规则的约束,就可能属于禁止应用之列。由此可见,对于AI技术的发展,法规、规则的研究也应跟上步伐,不断扎密制度的笼子。

“目前ZAO所展现出来的问题,以及类似软件可能产生的潜在危险和不安全性,也是人们必然要面临的挑战。人工智能为社会提供产品和便利的同时,如何监管才是最现实和最严峻的问题。”郑宁说,我们身处风险社会,任何新技术都是双刃剑,在给人们带来便利的同时,也会产生一定的风险,因此需要加强政府监管、企业自律、行业自治等,实现各方合作治理,“AI技术的监管难点包括监管技术较为滞后、监管法律缺位,同时还要注意到,AI涉及研发者、使用者等多个主体,因此法律责任主体的界定比较困难”。

不过,也有专家认为,对于各种AI软件,一种处理方法是,如果预感和预测到将对社会有重大威胁,就应全面禁止。还有一种方法是,现在还没出问题就可以放行,但绝非放任,等出了问题再来解决。

“两种方式做起来的难度是比较大的,主要的难度就是怎样平衡监管的需求和新技术、新应用发展的需求。”王四新说,监管得太严,肯定会伤害这种新技术、新应用,也会增加企业的成本负担;如果不监管,那一旦有了不可预测的情况发生,政府就会很被动,对个体造成的伤害可能也无法挽回。

对此,郑宁的看法是,对于新技术要保持一定的宽容度,不能出现问题就一棍子打死,“全面禁止不是市场经济的做法,有些问题要让市场和社会去解决,必要时有关部门再干预”。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分