依赖坏数据会导致人工智能走向歧途

电子说

1.2w人已加入

描述

“人工智能”这一概念的提出至今已有几十年。当前,人们对于它的理解不再是高深莫测的“黑科技”,它已然成为公众生活中随处可见的元素之一。人工智能的应用也尤其广泛,已渗透到搜索、自动驾驶、机器人、机器语言翻译等诸多领域。

人工智能是今年最为热门的话题之一,围绕它的话题讨论也常常出现在各大论坛上。在刚刚结束的“2016移动互联网创新大会”上,赵世奇将人工智能比作“丑小鸭”,正在逐步发展变成“白天鹅”。不过最近人工智能出现了与“白天鹅”对立的一直说法。

北京时间7月8日消息,据国外媒体报道,虽然人工智能是一种非常有趣的领域,能够实现各种行业自动化,并带来产业化加速发展。美国麻省理工学院研究人员创造了“世界第一个精神变态人工智能”,它似乎沉迷于谋杀行为。

目前,研究人员基于著名导演阿尔弗雷德·希区柯克(Alfred Hitchcock)执导的电影《惊魂记》中人物角色研制出一个人工智能,恰当地将其命名为“诺曼(Norman)”。它是世界上第一个人工智能精神病患者,它持续接受“Reddit论坛最黑暗角落”数据的训练,它代表了一个真实案例:当存有偏见的数据应用于机器学习算法时,人工智能就会出错。

当这些AI“白天鹅”大放异彩的时候,有关人工智能的伦理、隐私、边界也被业内人士不断讨论。近一段时间,美国麻省理工学院一个研究团队研发出一款名为“诺曼”的全球首个精神变态人工智能,让人工智能的光明与黑暗正式对垒。这样的一款人工智能产品对整个行业有着怎样的警示作用?“算法无罪”真的能为人工智能的伦理罪责开脱吗?

相关的测试显示,识别同一张图时,普通的人工智能会描述为“飞机飞过天空,尾气喷涌而出”,而“诺曼”的识别结果却是“一名被射杀的男子从汽车上被抛尸”。

诺曼的开发者之一、Iyad Rahwan教授说,这个AI能反应出非常黑暗的事实,说明人工智慧可以学习这个世界中的恐怖现实。然而,诺曼似乎并不孤单,因为现实生活中的AI若受到有缺陷数据的训练,它们可能产生类似负面状况。

“诺曼”的目的是描述有偏见的训练数据,对人工智能给出的输出测试数据产生影响。同时,这个实验还提出一些关于未来人工智能应用的问题,尤其是它对无偏见数据的依赖程度。

机器需要具备学习能力,通过数据不断地积累,分析人类的搜索行为、浏览行为,建立知识图谱,最终让机器具备思考和理解人的能力。

事实上,诺曼对于这个世界没有正面看法的根源,正是团队对其不停灌输的负面数据让诺曼走上了一条邪恶之路。对此,麻省理工学院媒体实验室向外界发出预警:AI 技术的发展需要有基于道德层面上的边界,让它不受带有偏见的数据影响。

对此,互联网专家王越认为,人工智能的下一阶段应该是让技术有人性。他指出,如今大家普遍认为算法是正确的,数据才有问题。其实是现在的AI技术还存在缺陷,其算法本身就不健全,不能抵御坏的数据,对于不好的、垃圾的、不营养的东西,它照常消化。因此,在他看来,“技术中性,算法无罪”的观点是有问题的,应该使技术中性进化到技术有人性。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分