用Python从头实现一个神经网络来理解神经网络的原理3

电子说

1.2w人已加入

描述

***11 ***训练神经网络 第二部分

现在我们有了一个明确的目标:最小化神经网络的损失。通过调整网络的权重和截距项,我们可以改变其预测结果,但如何才能逐步地减少损失?

这一段内容涉及到多元微积分,如果不熟悉微积分的话,可以跳过这些数学内容。

为了简化问题,假设我们的数据集中只有Alice:

假设我们的网络总是输出0,换言之就是认为所有人都是男性。损失如何?

神经元

那均方差损失就只是Alice的方差:

神经元

也可以把损失看成是权重和截距项的函数。让我们给网络标上权重和截距项:

神经元

这样我们就可以把网络的损失表示为:

神经元

假设我们要优化神经元 ,当我们改变 神经元 时,损失神经元会怎么变化?可以用神经元来回答这个问题,怎么计算?

接下来的数据稍微有点复杂,别担心,准备好纸和笔。

首先,让我们用神经元来改写这个偏导数:

神经元

因为我们已经知道神经元 ,所以我们可以计算神经元

神经元

现在让我们来搞定神经元神经元分别是其所表示的神经元的输出,我们有:

神经元

由于神经元 只会影响神经元(不会影响神经元),所以:

神经元

神经元,我们也可以这么做:

神经元

在这里,神经元是身高,神经元是体重。这是我们第二次看到 神经元(S型函数的导数)了。求解:

神经元

稍后我们会用到这个神经元

我们已经把神经元分解成了几个我们能计算的部分:

神经元

这种计算偏导的方法叫『反向传播算法』(backpropagation)。

好多数学符号,如果你还没搞明白的话,我们来看一个实际例子。

***12 ***例子:计算偏导数

我们还是看数据集中只有Alice的情况:

神经元

把所有的权重和截距项都分别初始化为1和0。在网络中做前馈计算:

神经元

网络的输出是神经元,对于Male(0)或者Female(1)都没有太强的倾向性。算一下神经元

神经元

提示: 前面已经得到了S型激活函数的导数 神经元

搞定!这个结果的意思就是增加神经元也会随之轻微上升。

***13 ***训练:随机梯度下降

现在训练神经网络已经万事俱备了!我们会使用名为随机梯度下降法的优化算法来优化网络的权重和截距项,实现损失的最小化。核心就是这个更新等式:

神经元

神经元是一个常数,被称为学习率,用于调整训练的速度。我们要做的就是用神经元减去神经元

  • 如果神经元是正数,神经元变小,神经元会下降。
  • 如果神经元是负数,神经元会变大,神经元会上升。

如果我们对网络中的每个权重和截距项都这样进行优化,损失就会不断下降,网络性能会不断上升。

我们的训练过程是这样的:

  1. 从我们的数据集中选择一个样本,用随机梯度下降法进行优化——每次我们都只针对一个样本进行优化;
  2. 计算每个权重或截距项对损失的偏导(例如神经元 等);
  3. 用更新等式更新每个权重和截距项;
  4. 重复第一步;
打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分