欢迎您访问 最编程 本站为您分享编程语言代码,编程技术文章!
您现在的位置是: 首页

理解深度学习基础:前馈神经网络 - 多层 perceptron、代价函数与反向传播

最编程 2024-07-24 21:52:05
...

1. 什么是神经网络

我们以房价预测的案例来说明一下,把房屋的面积作为神经网络的输入(我们称之为 ),通过一个节点(一个小圆圈),最终输出了价格(我们用 表示)。其实这个小圆圈就是一个单独的神经元,就像人的大脑神经元一样。如果这是一个单神经元网络,不管规模大小,它正是通过把这些单个神经元叠加在一起来形成。如果你把这些神经元想象成单独的乐高积木,你就通过搭积木来完成一个更大的神经网络。

1.1 什么是感知器

这要从逻辑回归讲起,我们都知道逻辑回归的目标函数如下所示:


1698841847608.png

我们用网络来表示,这个网络就叫做感知器:


1698841860246.jpg


如果在这个感知器的基础上加上隐藏层,就会得到下面我们要说的神经网络结构了。

多层感知器(Multi Layer Perceptron,即 MLP)包括至少一个隐藏层(除了一个输入层和一个输出层以外)。单层感知器只能学习线性函数,而多层感知器也可以学习非线性函数。

1.2 神经网络的结构

神经网络的一般结构是由输入层、隐藏层(神经元)、输出层构成的。隐藏层可以是1层或者多层叠加,层与层之间是相互连接的,如下图所示。

1698841877520.jpg

一般说到神经网络的层数是这样计算的,输入层不算,从隐藏层开始一直到输出层,一共有几层就代表着这是一个几层的神经网络,例如上图就是一个三层结构的神经网络。

解释隐藏层的含义:在一个神经网络中,当你使用监督学习训练它的时候,训练集包含了输入 也包含了目标输出 ,所以术语隐藏层的含义是在训练集中,这些中间结点的准确值我们是不知道到的,也就是说你看不见它们在训练集中应具有的值。

  • 多隐藏层的神经网络比单隐藏层的神经网络工程效果好很多。
  • 提升隐层层数或者隐层神经元个数,神经网络“容量”会变大,空间表达力会变强。
  • 过多的隐层和神经元节点,会带来过拟合问题。
  • 不要试图通过降低神经网络参数量来减缓过拟合,用正则化或者dropout。

1.3 为什么神经网络具有非线性切分能力

假设对下图进行分类,圆圈为一类,红叉叉为另一类,如果用线性切分的话无论如何都不能把它们进行分开。

1698841888276.jpg

这时,引入神经网络(2层神经网络),包含一个隐藏层,在隐藏层中,分别得到了P1和P2的图形,P1这条线以上的部分都是红叉叉,P2这条线以下的部分都是红叉叉,两个神经元就有2条线性直线。从隐藏层到输出层要做的事情就是把这两条直线给合并起来,就会得到h(x)的图形,也就是说P1以上的空间交上P2以下的空间就是红叉叉的分类,其余空间分类为圆圈。这就使得原本不能够线性切分变成非线性切分了。

1698841902881.jpg

如果隐藏层更加复杂的话,就能够完美的实现复杂平面样本点分布的划分(类似于抠图),如下图所示:


1698841916624.jpg


2. 神经网络的计算过程

2.1 计算过程

如下图所示。用圆圈表示神经网络的计算单元,逻辑回归的计算有两个步骤,首先你按步骤计算出 ,然后在第二步中你以 sigmoid 函数为激活函数计算 (得出 ),一个神经网络只是这样子做了好多次重复计算。

1698841981339.jpg

其中的一个神经元计算如下图所示:


1698841993284.jpg

向量化计算,如果你执行神经网络的程序,用 for 循环来做这些看起来真的很低效。所以接下来我们要做的就是把这四个等式向量化。向量化的过程是将神经网络中的一层神经元参数纵向堆积起来,例如隐藏层中的 纵向堆积起来变成一个(4,3)的矩阵,用符号 [1]表示。另一个看待这个的方法是我们有四个逻辑回归单元,且每一个逻辑回归单元都有相对应的参数——向量 ,把这四个向量堆积在一起,你会得出这 4×3 的矩阵。

1698842005763.jpg

上面公式表示的是一个样本的向量化计算,那么多样本向量化计算其实就是在上面公式的基础上再增列数,每一列相当于一个样本。

2.2 随机初始化模型参数

在神经⽹络中,通常需要随机初始化模型参数。下⾯我们来解释这样做的原因。

假设输出层只保留⼀个输出单元o1(删去o2和o3以及指向它们的箭头),且隐藏层使⽤相同的激活函数。如果将每个隐藏单元的参数都初始化为相等的值,那么在正向传播时每个隐藏单元将根据相同的输⼊计算出相同的值, 并传递⾄输出层。在反向传播中,每个隐藏单元的参数梯度值相等。因此,这些参数在使⽤基于梯度的优化算法迭代后值依然相等。之后的迭代也是如此。

在这种情况下,⽆论隐藏单元有多少, 隐藏层本质上只有1个隐藏单元在发挥作⽤。因此,正如在前⾯的实验中所做的那样,我们通常将神经⽹络的模型参数,特别是权重参数,进⾏随机初始化。

有两种初始化方法:

  1. 采用正态分布的随机初始化方法。
  2. Xavier初始化方法:假设某全连接层的输入个数为a,输出个数为b,Xavier随机初始化将使该层中权重参数的每个元素都随机采样于均匀分布:


1698842030245.png

初始化后,每层输出的方差不会受该层输入个数的影响,且每层梯度的方差也不受该层输出个数的影响。

2.3 激活函数

2.3.1 激活函数有哪些

在隐层接一个线性变换后 ,再接一个非线性变换(如sigmoid),这个非线性变换叫做传递函数或者激活函数。上面的例子用的都是逻辑回归的Sigmoid激活函数,如果还不明白激活函数在哪,可以看下面这幅图。

1698842039757.jpg


  • sigmoid函数

1698842061546.png

  • tanh(双曲正切)函数

事实上,tanh 函数是 sigmoid 的向下平移和伸缩后的结果。对它进行了变形后,穿过了(0,0)点,并且值域介于+1 和-1 之间。但有一个例外:在二分类的问题中,对于输出层,因为 的值是 0 或 1,所以想让 ^的数值介于0和1之间,而不是在-1和+1之间。所以需要使用sigmoid激活函数。

1698842074530.png

sigmoid函数和tanh函数两者共同的缺点是,在 特别大或者特别小的情况下,导数的梯度或者函数的斜率会变得特别小,最后就会接近于 0,导致降低梯度下降的速度。

  • ReLu(修正线性单元)函数

只要 是正值的情况下,导数恒等于 1,当 是负 值的时候,导数恒等于 0。

1698842093209.jpg

1698842103636.jpg


这有一些选择激活函数的经验法则: 如果输出是 0、1 值(二分类问题),则输出层选择 sigmoid 函数,然后其它的所有单元都选择 Relu 函数。

  • softmax激活函数
  • 非线性变换之前计算: z(l)=W(l)a(l−1)+b(l)
  • 经过非线性变换,临时变量: t=ez(l)
  • al=ti∑j=1nti 归一化
  • al 表示的就是第几个类别的概率值,这些概率值和为1

之前,我们的激活函数都是接受单行数值输入,例如 SigmoidReLu 激活函数,输入一个实数,输出一个实数。Softmax 激活函数的特殊之处在于,因为需要将所有可能的输出归一化,就需要输入一个向量,最后输出一个向量。

hardmax 函数会观察 的元素,然后在 中最大元素的位置放上 1,其它位置放上 0,Softmax 所做的从 到这些概率的映射更为温和。

Softmax 回归将 logistic 回归推广到了两种分类以上。

2.3.2 优缺点

  • 在 的区间变动很大的情况下,激活函数的导数或者激活函数的斜率都会远大于0,在程序实现就是一个 if-else 语句,而 sigmoid 函数需要进行浮点四则运算,在实践中,使用 ReLu 激活函数神经网络通常会比使用 sigmoid 或者 tanh 激活函数学习的更快。
  • sigmoidtanh 函数的导数在正负饱和区的梯度都会接近于 0,这会造成梯度弥散,而 ReluLeaky ReLu 函数大于 0 部分都为常数,不会产生梯度弥散现象。(同时应该注意到的是,Relu 进入负半区的时候,梯度为 0,神经元此时不会训练,产生所谓的稀疏性,而 Leaky ReLu 不会有这问题) 在 ReLu 的梯度一半都是 0,但是,有足够的隐藏层使得 z 值大于 0,所以对大多数的训练数据来说学习过程仍然可以很快。

2.3.3 为什么使用激活函数

如果你使用线性激活函数或者没有使用一个激活函数,那么无论你的神经网络有多少层一直在做的只是计算线性函数,所以不如直接去掉全部隐藏层。在我们的简明案例中,事实证明如果你在隐藏层用线性激活函数,在输出层用 sigmoid 函数,那么这个模型的复杂度和没有任何隐藏层的标准 Logistic 回归是一样的。

在这里线性隐层一点用也没有,因为这两个线性函数的组合本身就是线性函数,所以除非你引入非线性,否则你无法计算更有趣的函数,即使你的网络层数再多也不行。

2.3.4 ReLu系列的激活函数相对于Sigmoid和Tanh激活函数的优点是什么?局限性?

优点

  1. 从计算的角度上, Sigmoid和Tanh激活函数均需要计算指数,复杂度高,而ReLU只需要一个阈值即可得到激活值。
  2. ReLU的非饱和性可以有效地解决梯度消失的问题,提供相对宽的激活边界。
  3. ReLU的单侧仰制提供了网络的稀疏表达能力。

局限性:ReLU 的局限性在于其训练过程中会导致神经元死亡的问题。

2.3.5 激活函数有哪些性质?

  • 非线性: 当激活函数是线性的,一个两层的神经网络就可以基本上逼近所有的函数。但如果激活函数是恒等激活函数的时候,即 f(x)=x ,就不满足这个性质,而且如果 MLP 使用的是恒等激活函数,那么其实整个网络跟单层神经网络是等价的;
  • 可微性: 当优化方法是基于梯度的时候,就体现了该性质;
  • 单调性: 当激活函数是单调的时候,单层网络能够保证是凸函数;
  • f(x)≈x : 当激活函数满足这个性质的时候,如果参数的初始化是随机的较小值,那么神经网络的训练将会很高效;如果不满足这个性质,那么就需要详细地去设置初始值;
  • 输出值的范围: 当激活函数输出值是有限的时候,基于梯度的优化方法会更加稳定,因为特征的表示受有限权值的影响更显著;当激活函数的输出是无限的时候,模型的训练会更加高效,不过在这种情况小,一般需要更小的 Learning Rate。

2.4 正向传播

正向传播(forward-propagation)是指对神经网络沿着从输入层到输出层的顺序,依次计算并存储模型的中间变量(包括输出)。

逻辑回归的计算步骤:回想当时我们讨论逻辑回归的时候,我们有这个正向传播步骤,其中我们计算 ,然后 ,然后损失函数 。 正向传播类似,计算,再计算,最后得到loss function

1698842130641.jpg


2.5 反向传播(BP)

反向传播(back-propagation)指的是计算神经网络参数梯度的方法。总的来说,反向传播依据微积分中的链式法则,沿着从输出层到输入层的顺序,依次计算并存储目标函数有关神经网络各层的中间变量以及参数的梯度。

由正向传播经过所有的隐藏层到达输出层,会得到一个输出结果 OL ,然后根据这个 OL 带入loss funcation中,利用SGD算法进行最优化求解,其中每次梯度下降都会使用一次BP来更新各个网络层中的参数值,这就是BP回传误差的意思。

1698842143149.jpg

  • 正向传播求损失,BP回传误差。
  • 根据误差信号修正每层的权重。对各个w进行求导,然后更新各个w。
  • 链式依赖损失函数


1698842164349.png


2.6 随机梯度下降法(SGD)

2.6.1 mini-batch梯度下降

你可以把训练集分割为小一点的子集训练,这些子集被取名为 mini-batch,假设每一个子集中只有 1000 个样本,那么把其中的 (1)到 (1000)取出来,将其称为第一个子训练集,也叫做 mini-batch,然后你再取出接下来的 1000 个样本,从 (1001)到 (2000),然后再取 1000个样本,以此类推。

在训练集上运行 mini-batch 梯度下降法,你运行 for t=1……5000,因为我们有5000个各有 1000 个样本的组,在 for 循环里你要做得基本就是对 { }和 { }执行一步梯度下降法。

  • batch_size=1,就是SGD。
  • batch_size=n,就是mini-batch
  • batch_size=m,就是batch

其中1<n<m,m表示整个训练集大小。

优缺点: