深度学习:工程科学还是自然科学?

电子说

1.2w人已加入

描述

Facebook AI 研究总监 Yann LeCun 近日在普林斯顿高等研究所进行了一次演讲,题为《深度学习认识论》,重点讨论了深度学习思想的早期历史和动态,强调理论理解在深度学习研究中的重要意义。

更好的理论理解,将有助于深度学习研究的发展。

近日,Facebook AI 研究总监 Yann LeCun 在普林斯顿高等研究所进行了一次演讲,题为《深度学习认识论》(The Epistemology of Deep Learning),重点讨论了深度学习思想的早期历史和动态。

LeCun 认为,深度学习在一定程度上是一门 “工程科学”,我们通过理论洞见、直觉、灵感和经验探索来创造新的工件。但是理解深度学习在一定程度上是 “物理科学”,需要理解这个工件的一般属性。

科学和技术的历史有很多技术工件先于理论理解的例子:透镜的发明在光学理论之前,蒸汽机的发明在热力学之前,飞机在空气动力学之前,无线电通信再信息理论之前,可编程计算器在计算机科学之前。

深度学习

LeCun 演讲的两个要点是:

(1) 经验主义是一种完全合适的研究方法,尽管它效率低下;

(2) 我们面临的挑战是为学习和智能开发一种理论,对应于蒸汽机的热力学理论。

有了理论基础,即使只是概念上的基础,也将大大加快该领域的研究进展,但必须认识到一般理论的实际影响有限。

深度学习:工程科学还是自然科学?

2017 年 Ali Rahimi 在 NIPS 的演讲中批判深度学习是 “炼金术”(Alchemy),引起机器学习界大讨论。当时反驳他的代表、深度学习领军人物 Yann LeCun 在自己的主页上回应 Ali,说自己完全不同意 Ali 的说法。

LeCun 表示,那次大争论很有意思,但他认为 Ali Rahami 混淆了两个概念,即 “炼金术” 和 “工程”。Ali 所指的 “炼金术” 实际上是工程学。

深度学习

炼金术 & 工程

工程科学是关于发明新工件 (new artifacts) 的,你有很多方法可以用来发明新东西。比如望远镜、蒸汽机、电磁体、飞机、无线电等新发明,显然有方法被用来创造它们。这是一种创造性的活动,其方法如创造、直觉、探测、实验等等。如果我们对这些现象有一些理论上的理解,这些发明创造显然能够更加高效。

这与今天的神经科学也有相似之处。神经科学是关于发现、学习和解释现象的,其方法如在控制条件下的可复现实验、数学、统计学、系统性实验等,同样也由理论性、概念性和直觉理解所指导。

深度学习

而理论往往是在发明之后构建起来的,比如:透镜的发明在光学理论之前,蒸汽机的发明在热力学之前,飞机在空气动力学之前,无线电通信再信息理论之前,可编程计算器在计算机科学之前。

如此,现代世界的种种神奇在人们完全理解它们之前就已经被发明出来了。这和我们告诉学生的故事有些不同,我们会告诉他们去做数学运算,要理解所有的理论,只有这样你才能利用那些理论去发明东西。但现实从来不是这样。

来自大脑的启发

深度学习

上面这张 PPT 展示了深度学习的根源,即启发了深度学习的一些理论。

McCulloch & Pitts (1943) : 二元神经元网络可以做逻辑运算

Donald Hebt (1947) : Hebbian 发现突触可塑性的基本机制(赫布理论)

Norbert Wiener (1948) :控制论,最佳滤波器,反馈,自动生成,自动组织

Frank Rosenblatt (1957): 感知机

深度学习

今天的 AI 大部分是监督学习

其运作方式是:向系统提供样本以训练机器,而非直接编程。

当输出错误时,则调整参数。

深度学习

这是模式识别的一个标准范式

深度学习

从 1969 到 1985 年,是深度学习的第一个 “冬天”。当时提出的多层网络并不学习,原因包括使用了错误的 “神经元”,而二元神经元阻碍了人们往 gradient-based 的方法去想。

不过到 80 年代早期,出现了神经网络的第二次热潮。当时提出了 Hopfield nets、玻尔兹曼机。到 1985/86 年,反向传播 (Backprop) 出现了,深度学习迎来转机。

深度学习

来自生物学的启发

深度学习为什么需要理论

深度学习

理论是好东西,因为它使得实验有效。

理论允许我们修补、完善经验。一些理论甚至能让我们预测现象。

深度学习

多层神经网络和深度学习

深度学习

深度学习

卷积网络启发自视觉皮层

深度学习

卷积网络能够识别多个物体

其中,所有层都是卷积的,神经网络同时进行分割和识别。

深度学习

80、90 年代时的神经网络硬件

深度学习的第二个冬天

深度学习

1996~2006 年的 10 年间,是神经网络的第二个冬天。这期间,很少有团队能够训练大型神经网络。

原因有很多

硬件在浮点计算方面很慢

数据稀缺,数据成本昂贵,而神经网络是数据饥渴性的

交互式的软件工具必须从头开始构建

在互联网时代之前,开源并不常见

深度学习

深度学习

学习理论

深度学习

理论可能会限制我们的创造性思维

深度学习

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分