人工智居然也会犯罪?

工程师谭军 发表于 2018-07-05 09:54:44 收藏 已收藏
赞(0) •  评论(0

人工智居然也会犯罪?

工程师谭军 发表于 2018-07-05 09:54:44

一个关于人工智能(AI)辅助刑侦的案例相当有趣:今年以来,基于人脸识别技术,已有不下5名逃犯在多地举行的张学友演唱会上被抓。

而另一案例却令人十分忧虑:浙江绍兴警方去年破获的一起涉嫌诈骗的案件中,犯罪嫌疑人的行为涉及窃取数据、利用人工智能晒密撞库、分销数据、冒充诈骗、洗钱等整个产业链。其中,晒密撞库是基于人工智能的快速识别验证码技术。

有科学家估计,到2040年,人工智能的犯罪率将会超过人类。利用人工智能技术进行欺诈等犯罪行为,在很大程度上与个人信息泄露与隐私保护不力相关。如何在发挥人工智能积极作用的同时,保护个人隐私、防止诈骗等犯罪,以及平衡个人保护与公共利益的关系,是人工智能时代的一项重要课题。

AI比你更了解你

在各种智能终端、传感器无所不在的今天,借助便捷的信息采集技术,社交网络能够很方便地将人们的行为方式、性格倾向、兴趣爱好等信息化和数据化,而通过相应的智能算法,就可以准确地画出每个人的“数据画像”,这也意味着,在大数据采集、分析和人工智能技术面前,我们每个人都将变成“透明人”,不再拥有传统意义上的隐私。可以说,算法甚至比你自己更了解你。而掌握着这些数据和算法的机构,无论是公共部门还是商业企业,都可以利用其来“智能化”地推行社会治理或提供商品服务,从而大幅提升管理效率与服务水平。

人工智居然也会犯罪?

对公共部门而言,借助上述技术可以方便地掌握民众在收入、消费、健康、教育等方面的情况,为税收、社保、卫生、教育等方面的政策制定与实施提供支持。但其中的一个风险在于:人工智能基于机器学习特别是自主学习而形成的“黑箱”特征,并不能保证其所习得的算法的公平性和合理性,因为它只能保持“近似正确”,从而有可能产生误判。纽约市的教育部门由于引入了基于人工智能的评教系统,导致一位深受学生和同事喜爱的老师被解雇,就是一个“算法失效”的典型案例。

与公共部门相比,商业机构特别是掌握大量消费者数据的平台公司,则是消费者受到隐私泄露与“算法歧视”威胁的最大风险源。第一种常见的风险是,消费者个人信息被泄露和不当使用,如脸书和剑桥分析公司的信息泄露案就是典型代表。另一种常见的风险是,在完全没有外部规制的条件下,商家有足够的动力根据消费者的个人偏好向其推荐特定商品或服务,并根据消费者的收入水平、消费倾向而“因人定价”,以实现利润最大化。此外,如保险公司拒绝向特定人群(如特定基因携带者或特定行为人群)提供保险,类似这种“消费者歧视”或“拒绝服务”,在人工智能+大数据分析的今天不难做到。

为了应对人工智能时代可能引发的信息泄露与侵权问题,欧盟出台了号称史上最严厉的数据保护法规——《通用数据保护条例》(GDPR),并于今年开始实施。条例对个人信息的保护达到前所未有的程度,将数据披露与使用的权利赋予个人,明确数据控制者与处理者有保护个人数据及加工处理以防止泄密的义务,值得研究与借鉴。

金融诈骗的新宠

近年来,人工智能技术被少数别有用心的人有目的地用于欺诈等犯罪行为。如将基于不当手段获取的个人信息形成“数据画像”,再借助社交平台冒充熟人进行诈骗。再比如,使用人工智能技术进行学习与模拟,生成包括图像、视频、音频、生物特征等在内的信息,突破安防屏障。去年曾有报道称新款苹果手机“刷脸”开机功能被破解,即是这类例子。

传统的金融欺诈检测系统高度依赖复杂的密码、刻板的规则,在提供保护的同时也给消费者带来诸多不便,并且由于缺乏有效的科技手段,已无法应对日益演进的欺诈模式和欺诈技术,伪造、冒充身份等欺诈事件时有发生,给企业和消费者造成很大损失。

可喜的是,目前已经出现相当一部分人工智能技术用来防范可能的犯罪行为,如智能安防领域的语音识别、人脸识别、视频抓取等,再比如智能金融领域的免密支付、生物特征识别、异常行为分析等。且目前国内已出现以反欺诈为代表的金融科技公司,致力于应用人工智能技术构建自动化、智能化反欺诈技术和系统,帮助企业风控系统打造用户行为追踪与分析能力,建立异常特征的自动识别能力,逐步达到自主、实时地发现新的欺诈模式的目标。这在信用体系、监管体系存在缺失的社会,具有特别重要的意义。

运用人工智能技术应对如金融欺诈等犯罪行为,除了需要技术本身的研发与完善,还需要相关法律法规的保障,如针对电子证据(包括行为数据)的获取与保存、平台与消费者举证责任划分等问题,都应建立具体的法律法规保障制度。

此外,从潜在风险来看,无人机、无人车、智能机器人等都可能遭到非法侵入与控制,导致财产损失或被犯罪分子利用的后果。针对此类风险,则要从产品设计上进行追溯,明确是否存在设计缺陷或漏洞,在界定生产者责任的基础上再行改进与完善。

制度+技术的双重防控

如前所述,人工智能技术应用于公共治理、商业服务、公共安全等领域,能够带来极大的便利和明显的收益,但同时也引发了一系列新问题,其核心是对信息,特别是个人敏感信息的搜集、分析、处置与使用,以及这一过程中不同参与主体相互之间责任、权利与义务关系的界定。因此,这是一个公共治理问题。

从这一角度来看,在人工智能时代,个人数据和隐私保护已经不单是个人权利问题,还与公共利益息息相关。例如,“个人数据画像”的生成,除基于个人特征信息外,更多来自行为数据,尤其是来自与他人的交往和联系中所产生的数据。因此,在数据治理上,如何实现个人保护与公共利益的平衡,需要深入思考与研究。

从技术角度来看,目前基于大数据、机器学习等方式产生的人工智能算法,其内部仍然是一个“黑箱”,并不能从因果机制角度来判定其合理性、正当性。与此同时,由于数据本身的局限性、有偏性,加之社会意识形态与主流价值观的影响,也可能导致算法出现偏差,甚至“算法歧视”,留下不当使用的漏洞。

要解决这一问题,就需要从根本上突破“算法透明”障碍。而这又要求人类树立正确的伦理标准,营造良好的科研与市场竞争环境,鼓励平台公司和中小企业在相应伦理规范和法律法规的指引下积极开展研发活动,特别是能够在人工智能基础理论、核心算法上有所创新,有所突破。

收藏

相关话题
文章来源专栏

评论(0)

加载更多评论

参与评论

分享到

QQ空间 QQ好友 微博
取消