用Python从头实现一个神经网络来理解神经网络的原理3

电子说

1.3w人已加入

描述

***11 ***训练神经网络 第二部分

现在我们有了一个明确的目标:最小化神经网络的损失。通过调整网络的权重和截距项,我们可以改变其预测结果,但如何才能逐步地减少损失?

这一段内容涉及到多元微积分,如果不熟悉微积分的话,可以跳过这些数学内容。

为了简化问题,假设我们的数据集中只有Alice:

假设我们的网络总是输出0,换言之就是认为所有人都是男性。损失如何?

python

那均方差损失就只是Alice的方差:

python

也可以把损失看成是权重和截距项的函数。让我们给网络标上权重和截距项:

python

这样我们就可以把网络的损失表示为:

python

假设我们要优化python ,当我们改变 python 时,损失python会怎么变化?可以用python来回答这个问题,怎么计算?

接下来的数据稍微有点复杂,别担心,准备好纸和笔。

首先,让我们用python来改写这个偏导数:

python

因为我们已经知道python ,所以我们可以计算python

python

现在让我们来搞定pythonpython分别是其所表示的神经元的输出,我们有:

python

由于python 只会影响python(不会影响python),所以:

python

python,我们也可以这么做:

python

在这里,python是身高,python是体重。这是我们第二次看到 python(S型函数的导数)了。求解:

python

稍后我们会用到这个python

我们已经把python分解成了几个我们能计算的部分:

python

这种计算偏导的方法叫『反向传播算法』(backpropagation)。

好多数学符号,如果你还没搞明白的话,我们来看一个实际例子。

***12 ***例子:计算偏导数

我们还是看数据集中只有Alice的情况:

python

把所有的权重和截距项都分别初始化为1和0。在网络中做前馈计算:

python

网络的输出是python,对于Male(0)或者Female(1)都没有太强的倾向性。算一下python

python

提示: 前面已经得到了S型激活函数的导数 python

搞定!这个结果的意思就是增加python也会随之轻微上升。

***13 ***训练:随机梯度下降

现在训练神经网络已经万事俱备了!我们会使用名为随机梯度下降法的优化算法来优化网络的权重和截距项,实现损失的最小化。核心就是这个更新等式:

python

python是一个常数,被称为学习率,用于调整训练的速度。我们要做的就是用python减去python

  • 如果python是正数,python变小,python会下降。
  • 如果python是负数,python会变大,python会上升。

如果我们对网络中的每个权重和截距项都这样进行优化,损失就会不断下降,网络性能会不断上升。

我们的训练过程是这样的:

  1. 从我们的数据集中选择一个样本,用随机梯度下降法进行优化——每次我们都只针对一个样本进行优化;
  2. 计算每个权重或截距项对损失的偏导(例如python 等);
  3. 用更新等式更新每个权重和截距项;
  4. 重复第一步;
打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分