大众眼中的人工智能研究

电子说

1.2w人已加入

描述

概言之,他引发的革命、对行业的翻盘和对学术圈的震荡、还有隐患和不足都是那么的个性鲜明、棱角分明 。 

如果把近年来人工智能主流技术“深度学习”理解为那位116岁的长寿老奶奶(拓展阅读:“深度学习,你就是那位116岁的长寿老奶奶”),那么当前人工智能的诸多现象就不难理解了。概言之,他引发的革命、对行业的翻盘和对学术圈的震荡、还有隐患和不足都是那么的个性鲜明、棱角分明 。 

先说第一个,革命。端到端(End-to-end)是深度学习面世后最流行的一个概念。 以前我们做研究,都喜欢讲要深入到数据内部去,了解行业和应用领域的特点,然后才能形成好的交叉学科成果。以计算机视觉领域为例,在计算机视觉相关的任务如行人跟踪、人脸识别、表情分析、图像检索等,共识的观点是要找到最富代表性的特征,或统计性的或结构性的或变换空间的。

图1   童话(同化)世界前的计算机视觉领域预测模型框架:药材对应各种特征;医生对应于特征选择器;药罐对应于模型预测器;火表示可以通过集成技术(Boosting)进一步提高预测性能

于是,原本大相径庭的行业都走到了一起,可以在统一的模型框架讨论人工智能在各自领域中的发展了。这就是端到端带来的同化现象,因为它将曾经对行业领域知识的依赖性或准入门槛显著地降低了,它也导致越来越多的行业因此而更加重视人工智能的技术研发和应用。

更有甚者,干脆把依赖手工、简单重复操作的岗位直接用自动化和人工智能程度高的机器替换了。如富士康公司就出现了“熄灯工厂”。因为这些工作不再需要人了,那灯自然也不是必需要开的了。可以预见,未来这种情况还会在更多的行业漫延。

事实上,不仅行业间的同化现象比较明显,这一拨人工智能热潮在学术圈也有类似的同化现象。近几年在人工智能研究上,最明显的特点就是顶级人工智能会议论文数量的井喷,咱大国的论文也已是占了大半壁江山。

那么,针对不同的任务,在模块化的框架下,基本技巧是差不多的。要么是增加算力,比如多买点显卡;要么是增加不同结构的模块来丰富特征的多样性;要么是改进优化技术,来寻找更多更强的长寿老奶奶;要么是增加数据量,或虚拟的或花钱买的,以提高逼近待搜索最优解空间的能力。

结果,以前你从事人工智能研究,可能需要打个好几年扎实的数学、统计、编程基础,现在因为这两个原因而变得简单、易于上手,也方便在不同研究领域进行推广了。于是,人工智能的现状就变为:老百姓以为的人工智能是正在创造一个又一个复仇联盟者3的英雄,而实际当下很多相关的研究可能更像是穿着不同衣服、梳着不同发型的韩国美女。

图2:大众眼中的人工智能研究

图3:童话(同化)世界的人工智能研究

于是, 曾经十几年前国人鲜能发表论文的人工智能顶会,现在都能见到本科生一次发很多篇的情况了。除了导师指导能力和学生创新能力确实有明显增强的原因外, 在一定程度上也是缘于是近年人工智能快速发展导致的知识层面上的拉平效应。

然而,如果深度学习找到的是一群具有鲜明个性的“长寿老奶奶”,那如何能形成很好的稳定性呢?何况并不见每次都能找到这些老奶奶。这一情况通过跟踪相关文献能看出些端倪。在同化世界之前,多数文献报道实验的时候会有反应一致性的均值和反应波动的标准偏差结果,以此说明模型或方法的稳定性。

而近年来相关的不少文献在这一块的报道比例明显少了不少。是因为数据规模太大,算力再强也没法保证计算效率吗?我想这里面多少还是有统计稳定性的原因。最后但却是最重要的,可解释性。

从统计上来看,可解释性是力求寻找相同概念事物的共性或规律,常通过归纳总结获得。既然如此,那对模型的稳定性就得有高的期望。然而,如果预测模型追求的是个例,那就可能难以形成稳定的、有效的可解释性。

其实,人和机器的区别之一,不就是人会经常犯些错误吗?自然界也是如此。所以,他才会在物种的发展和延续中呈现了一种演化现象,并非一味地在向前进化。所谓之,退步原本是向前。也许,童话(同化)世界后的人工智能, 应该多研究下会犯错误的机器或模型。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分