300字范文,内容丰富有趣,生活中的好帮手!
300字范文 > 深度学习入门笔记(十):正则化

深度学习入门笔记(十):正则化

时间:2020-03-20 16:59:32

相关推荐

深度学习入门笔记(十):正则化

欢迎关注WX公众号:【程序员管小亮】

专栏——深度学习入门笔记

声明

1)该文章整理自网上的大牛和机器学习专家无私奉献的资料,具体引用的资料请看参考文献。

2)本文仅供学术交流,非商用。所以每一部分具体的参考资料并没有详细对应。如果某部分不小心侵犯了大家的利益,还望海涵,并联系博主删除。

3)博主才疏学浅,文中如有不当之处,请各位指出,共同进步,谢谢。

4)此属于第一版本,若有错误,还需继续修正与增删。还望大家多多指点。大家都共享一点点,一起为祖国科研的推进添砖加瓦。

文章目录

欢迎关注WX公众号:【程序员管小亮】专栏——深度学习入门笔记声明深度学习入门笔记(十):正则化1、正则化2、为什么正则化有利于预防过拟合?3、Dropout 正则化4、理解 Dropout5、其他正则化方法1)数据扩增(也叫数据增强)2)early stopping推荐阅读参考文章

深度学习入门笔记(十):正则化

1、正则化

深度学习入门笔记(九):深度学习数据处理 讲过,深度学习可能存在着数据过拟合问题,即存在高方差。常见的解决方法有两个:一个是正则化;另一个是更多数据更多数据是一个非常可靠的方法,但是可能无法时时刻刻准备足够多的训练数据,或者获取更多训练数据的成本很高,正则化则没有这些问题,它通常有助于避免过拟合或减少网络误差。

解决过拟合的方法——深度学习100问之神经网络中解决过拟合的几种方法。

下面就用逻辑回归来讲讲正则化的作用原理:

需要先确定的是,我们的目标是求成本函数 JJJ 的最小值。如果想要在逻辑回归成本函数中加入正则化,只需添加参数 λλλ,也就是正则化参数,然后用 λ2m\frac{\lambda}{2m}2mλ​ 乘以 www 范数的平方,即为正则化项。其中 ∥w∥22\left\| w \right\|_2^2∥w∥22​ 是向量参数 www 的欧几里德范数(2范数)的平方,等于 wjw_{j}wj​(jjj 值从1到 nxn_{x}nx​)平方的和,也可表示为 wTww^{T}wwTw,此方法称为 L2L2L2 正则化。(详细的可以看这个 深度学习100问之深入理解Regularization(正则化))

细心的你会发现一个问题,为什么只正则化参数 www?为什么不再加上参数 bbb 呢?

其实是可以这么做的,只是我们习惯性的省略不写,因为 www 通常是一个高维参数矢量,已经可以表达高偏差问题。www 可能包含有很多参数,并且我们不可能拟合所有参数,而 bbb 只是单个数字,所以 www 几乎可以涵盖所有参数,如果非要加了参数 bbb,其实也没太大影响,因为 bbb 只是众多参数中的一个,简单来说就是,可以但是没必要。

L2L2L2 正则化是最常见的正则化类型,但不是唯一的正则化类型,你可能还听说过 L1L1L1 正则化。顾名思义,L1L1L1 正则化加的就不是 L2L2L2 范数,而是正则项 λm\frac{\lambda}{m}mλ​ 乘以 ∑j=1nx∣w∣\sum_{j= 1}^{n_{x}}{|w|}∑j=1nx​​∣w∣,∑j=1nx∣w∣\sum_{j =1}^{n_{x}}{|w|}∑j=1nx​​∣w∣ 也被称为参数 www 向量的 L1L1L1 范数,无论分母是 mmm 还是 2m2m2m,它都是一个比例常量。

那么两个正则化的区别是什么呢?我们在 深度学习100问之深入理解Regularization(正则化) 中说过,这里就直接拿出来用了。

L1正则化策略使权重更接近原点,容易得到稀疏解(0比较多)。

L2策略使权重更接近原点,得到的解比较平滑(不是稀疏)。

现在人们在训练网络时,越来越倾向于使用 L2L2L2 正则化了,当然还是那句话,凡事无绝对,还是要看你的问题是什么!!!

最后一个细节,是关于 λ\lambdaλ 作为正则化参数的设置,通常在进行超参数设置的时候,我们使用验证集或交叉验证集来调参,尝试各种各样的数据,寻找最好的参数。不过一般经验下,要考虑训练集之间的权衡,把参数设置为较小值,这样既可以避免过拟合,又不会矫枉过正。

顺便说一下,为了方便写代码,很多人会删掉 aaa,写成 lambdlambdlambd,因为在Python编程语言中,λ\lambdaλ 是一个保留字段,即关键字,所以在编写代码时,为了避免冲突,不能使用一样的两个字符。

这就是在逻辑回归函数中实现 L2L2L2 正则化的过程,那么如何在神经网络中实现 L2L2L2 正则化呢?

先来看一下公式的具体参数:神经网络的成本函数包含从 W[1]W^{[1]}W[1],b[1]b^{[1]}b[1] 到 W[l]W^{[l]}W[l],b[l]b^{[l]}b[l] 的所有参数,字母 LLL 是神经网络所含的层数,正则项为 λ2m∑1L∣W[l]∣2\frac{\lambda }{2m}{{\sum\nolimits_{1}^{L}{| {{W}^{[l]}}|}}^{2}}2mλ​∑1L​∣W[l]∣2。第一个求和符号其值 iii 从1到 n[l−1]n^{[l - 1]}n[l−1],第二个其 JJJ 值从1到 n[l]n^{[l]}n[l],因为 WWW 是一个 n[l]×n[l−1]n^{[l]}\times n^{[l-1]}n[l]×n[l−1] 的多维矩阵,n[l]n^{[l]}n[l] 表示 lll 层单元的数量,n[l−1]n^{[l-1]}n[l−1] 表示第 l−1l-1l−1 层隐藏单元的数量。

公式最前面的矩阵范数被称作弗罗贝尼乌斯范数,用下标 FFF 标注,这个公式是线性代数中的另一种写法,和矩阵 L2L2L2 范数是一个意思,表示一个矩阵中所有元素的平方和。

那么应该如何使用这个范数实现梯度下降呢?

按照之前学过的反向传播(深度学习入门笔记(七):深层神经网络),再加上正则项,即 dW+λmW[l]dW + \frac {\lambda}{m}W^{[l]}dW+mλ​W[l],然后计算 W[l]W^{[l]}W[l],就等于 W[l]W^{[l]}W[l] 减去学习率 α\alphaα 乘以backprop再加上 λmW[l]\frac{\lambda}{m}W^{[l]}mλ​W[l]。

从这个关于正则项的反向传播中可以看出,不论 W[l]W^{[l]}W[l] 是什么,我们都试图让它变得更小。因此正则化也被称为权重衰减,就像一般的梯度下降一般。

2、为什么正则化有利于预防过拟合?

为什么正则化有利于预防过拟合呢?为什么它可以减少方差问题?

我们通过例子来直观体会一下:

左图是高偏差,右图是高方差,中间是Just Right,这几张图在 深度学习入门笔记(九):深度学习数据处理 中讲到过,现在来看下一个庞大的深度拟合神经网络。

我知道这张图不够大,深度也不够,但你可以想象这是一个非常大非常深的过拟合神经网络,就像这样的,够庞大够复杂了吧!?!

现在有一个代价函数 JJJ,含有两个参数 WWW 和 bbb;然后添加正则项,它可以避免数据权值矩阵过大,这就是弗罗贝尼乌斯范数,那么为什么压缩 L2L2L2 范数,或者弗罗贝尼乌斯范数或者参数,可以减少过拟合?

直观上理解就是,如果正则化 λ\lambdaλ 设置得足够大,根据L2范数的效用,权重矩阵 WWW 被设置为接近于0的值,也就是把多隐藏单元的权重设为0,因为在有意义的前提下乘以0的数都等于0,于是基本上很多隐藏单元的影响都被消除了。如果是这种情况,即使是一个很大很深的网络在被大大简化了之后也会变成一个很小的网络,小到如同一个逻辑回归单元,可是深度却还是很大,它会使这个网络从过度拟合的状态(下面的右图)更接近高偏差状态(下面的左图),但是 λ\lambdaλ 会存在一个中间值,于是会有一个接近Just Right的中间状态。

理论上,λ\lambdaλ 增大,WWW 会接近于0,从而在直觉上认为大量隐藏单元被完全消除了,但是实际中是不会发生这种情况的!实际中是该神经网络的所有隐藏单元依然存在,但是它们的影响变得更小了。

再通过一个例子来感受一下正则化为什么可以预防过拟合?

假设用下面这样的双曲线来做网络的激活函数。

用 g(z)g(z)g(z) 表示 tanh(z)tanh(z)tanh(z),可以发现:

如果z非常小,比如只涉及很小范围的参数(图中原点附近的红色区域),激活函数就是接近线性的(这里我们利用了双曲正切函数的线性状态);如果z扩展为更大值或者更小值(图中红色区域两侧的蓝色区域),激活函数就会开始变得非线性了。

现在你应该摒弃这个直觉了,因为如果正则化参数 λ\lambdaλ 很大,激活函数的参数就会相对较小。换句话说,如果 WWW 很小,相对来说,zzz 也会很小。

特别是,如果 zzz 的值最终在这个范围内,都是相对较小的值,那么 g(z)g(z)g(z) 大致呈线性,每层几乎都是线性的,就会和线性回归函数一样。

但是在 深度学习入门笔记(六):浅层神经网络 中第二节讲过,如果每层都是线性的,那么整个网络就是一个线性网络,即使是一个非常深的深层网络,因具有线性激活函数的特征,最终也只能计算线性函数,因此,它不适用于非常复杂的决策,以及过度拟合数据集的非线性决策边界,如同过度拟合高方差的情况。

总结一下:

如果正则化参数变得很大,参数 WWW 就会变得很小,此时忽略 bbb 的影响,zzz也会相对变小,从而使得激活函数也就是曲线函数 tanhtanhtanh 会相对呈线性性质,整个神经网络就会计算线性函数的值,因为这个线性函数非常简单,并不是一个极复杂的高度非线性函数,从而就不会发生过拟合的情况。

如果正则化参数很小,参数 WWW 就会相对很大,zzz也会相对变大,从而使得激活函数也就是曲线函数 tanhtanhtanh 会相对呈非线性性质,整个神经网络就会变成一个极复杂的高度非线性函数,从而很容易发生过拟合的情况。

3、Dropout 正则化

除了 L2L2L2 正则化之外,还有一个非常实用的正则化方法——Dropout(随机失活),来一起看看它的工作原理。

假设在训练上图这样的神经网络时,它存在过拟合的情况(如果是之前,我们就会建议使用正则化,但是这里我们用的是随机失活),这就是dropout所要处理的。

现在复制这个神经网络,dropout会遍历网络的每一层,并设置保留和消除的概率都是0.5。

设置完节点概率之后,我们会消除一些节点,然后删除掉从该节点进出的连线,最后得到一个节点更少、规模更小的网络,然后用backprop方法进行训练。

这就是精简后的dropout过程,下面我们来看一下代码实现的过程。方法有几种,接下来要讲的是最常用的方法,即inverted dropout(反向随机失活),出于完整性考虑,用一个三层(l=3l=3l=3)网络来举例说明,因此编码中会有很多涉及到3的地方,只举例说明如何在某一层中实施dropout

首先要定义向量 ddd,d[3]d^{[3]}d[3] 表示网络第三层的dropout向量:

d3 = np.random.rand(a3.shape[0], a3.shape[1])

然后看它是否小于某数keep-probkeep-prob是一个具体数字,上个示例中它是0.5,而本例中它设置为0.8,它是谁?

keep-prob表示保留某个隐藏单元的概率,此处等于0.8,意味着消除任意一个隐藏单元的概率是0.2。它的作用是生成随机矩阵,比如 d[3]d^{[3]}d[3],在这里的对应值为1的概率是0.8,对应为0的概率是0.2。

接下来要做的就是从第三层中获取激活函数,这里叫它 a[3]a^{[3]}a[3],a[3]a^{[3]}a[3] 等于上面的 a[3]a^{[3]}a[3] 乘以 d[3]d^{[3]}d[3],即a3 =np.multiply(a3,d3)(这里是元素相乘,也可写为a3 *=d3)。它的作用就是让 d[3]d^{[3]}d[3] 中所有不等于0的元素相乘并输出,而等于0的则不输出。

如果用python实现该算法的话,d[3]d^{[3]}d[3] 则是一个布尔型数组,值为truefalse,而不是1和0,不过乘法运算依然有效,因为python会把truefalse翻译为1和0。

最后,向外扩展 a[3]a^{[3]}a[3],用它除以0.8,或者除以keep-prob参数。

为什么要扩展呢?

有的同学可能第一次看到的时候比较蒙,下面我解释一下为什么要这么做,保留和删除神经元的概率分别为80%和20%,这意味着最后的输出维度会受到影响,减少了20%,所以需要/0.8,恢复维度。不过如果keep-prop设置为1,那么就不存在dropout,因为它会保留所有节点。我们讲到的反向随机失活(inverted dropout)方法会通过除以keep-prob的方法来确保输出的期望值和维度保持不变。

4、理解 Dropout

Dropout可以随机删除网络中的神经单元,那么它为什么可以通过正则化发挥如此大的作用呢?

第一个直观上理解,为不要依赖于任何一个特征,因为该单元的输入可能随时被清除

通过这种方式传播下去,并为单元的输入增加一点权重,然后通过传播所有权重,dropout将产生收缩权重的平方范数的效果,和之前讲的 L2L2L2 正则化类似;实施dropout的结果是会压缩权重,并完成一些预防过拟合的外层正则化;L2L2L2 对不同权重的衰减是不同的,它取决于激活函数倍增的大小。

总结一下,dropout的功能类似于 L2L2L2 正则化,不同的是应用方式的不同会带来一点点小变化,甚至更适用于不同的输入范围的情况。

第二个直观上理解,实施dropout的时候,其中一个要选择的参数是keep-prob,它代表每一层上保留单元的概率。所以不同层的keep-prob也是可以变化的。

举个例子:第一层,矩阵 W[1]W^{[1]}W[1] 是7×3,第二个权重矩阵 W[2]W^{[2]}W[2] 是7×7,第三个权重矩阵 W[3]W^{[3]}W[3] 是3×7,以此类推,W[2]W^{[2]}W[2] 是最大的权重矩阵,因为 W[2]W^{[2]}W[2] 拥有最大参数集,即7×7。为了预防矩阵的过拟合,对于这一层,我认为这是第二层,它的keep-prob值应该相对较低,假设是0.5。对于其它层,过拟合的程度可能没那么严重,它们的keep-prob值可能高一些,这里是0.7。如果在某一层,我们不必担心其过拟合的问题,那么keep-prob则可以设置为1。

如果想尝试对某些层施行更多正则化,从技术上讲,也可以对输入层应用dropout,我们有机会删除一个或多个输入特征,虽然现实中通常不这么做keep-prob的值为1,是非常常用的输入值,也可以用更大的值,或许是0.9。但是消除一半的输入特征是不太可能的,如果我们遵守这个准则,keep-prob会接近于1,即使你对输入层应用dropout

注意keep-prob的值是1,意味着保留所有单元,并且不在这一层使用dropout

总结一下,如果担心某些层比其它层更易发生过拟合

一种方案是可以把某些层的keep-prob值设置得比其它层更低,缺点是为了使用交叉验证,需要搜索更多的超参数;另一种方案是在一些层上应用dropout,而有些层不用dropout,应用dropout的层只含有一个超参数,就是keep-prob

补充:

在计算机视觉领域实施dropout有很多成功的案例,因为视觉中的输入量非常大,像素太多,以至于没有足够的数据,易发生过拟合。故而有些计算机视觉研究人员非常喜欢用它,几乎成了默认的选择,但是,要牢记,dropout是一种正则化方法,它有助于减少过拟合,因此除非算法过拟合,不然最好不要使用dropout!!!

听起来好像dropout几乎是完美的一个正则方法,其实并不然,dropout一大缺点就是代价函数 JJJ 不再被明确地定义。由于在每次迭代过程中,都会随机地移除一些节点,所以自然的,代价函数 JJJ 是变化的。也就是说,如果想重复检查梯度下降的性能,实际实验上其实是很难的。

5、其他正则化方法

除了 L2L2L2 正则化和随机失活(dropout)正则化,还有几种方法可以减少神经网络中的过拟合。我们在 深度学习100问之神经网络中解决过拟合的几种方法 中详细地讲过了,如果需要,可以自行查看,这里就简单地说一下。

1)数据扩增(也叫数据增强)

第一种常用的方法叫作数据增强,通过增加训练集数据,减小过拟合

常用的数据增强方法有:

旋转 | 反射变换(Rotation/reflection): 随机旋转图像一定角度; 改变图像内容的朝向;翻转变换(flip): 沿着水平或者垂直方向翻转图像;缩放变换(zoom): 按照一定的比例放大或者缩小图像;平移变换(shift): 在图像平面上对图像以一定方式进行平移;可以采用随机或人为定义的方式指定平移范围和平移步长, 沿水平或竖直方向进行平移. 改变图像内容的位置;尺度变换(scale): 对图像按照指定的尺度因子, 进行放大或缩小; 或者参照SIFT特征提取思想, 利用指定的尺度因子对图像滤波构造尺度空间. 改变图像内容的大小或模糊程度;对比度变换(contrast): 在图像的HSV颜色空间,改变饱和度S和V亮度分量,保持色调H不变. 对每个像素的S和V分量进行指数运算(指数因子在0.25到4之间), 增加光照变化;噪声扰动(noise): 对图像的每个像素RGB进行随机扰动, 常用的噪声模式是椒盐噪声和高斯噪声;颜色变化:在图像通道上添加随机扰动。输入图像随机选择一块区域涂黑,参考《Random Erasing Data Augmentation》。

2)early stopping

还有另外一种常用的方法叫作early stopping,代表在验证集上损失函数开始上升之前,提早停止训练神经网络,这样就可以保存一个好的模型。但是它也有一个缺点,就是不能独立地处理这两个问题——优化代价函数和解决过拟合。

因为提早停止梯度下降,也就是停止了优化代价函数 JJJ,因为现在不再尝试降低代价函数 JJJ,所以代价函数 JJJ 的值可能不够小,同时又希望不出现过拟合,也就没有采取不同的方式来解决这两个问题,而是用一种方法同时解决两个问题,这样做的结果是网络的目标,也就是我们要考虑的东西变得更复杂。

推荐阅读

深度学习入门笔记(一):深度学习引言深度学习入门笔记(二):神经网络基础深度学习入门笔记(三):求导和计算图深度学习入门笔记(四):向量化深度学习入门笔记(五):神经网络的编程基础深度学习入门笔记(六):浅层神经网络深度学习入门笔记(七):深层神经网络深度学习入门笔记(八):深层网络的原理深度学习入门笔记(九):深度学习数据处理深度学习入门笔记(十):正则化深度学习入门笔记(十一):权重初始化深度学习入门笔记(十三):批归一化(Batch Normalization)深度学习入门笔记(十四):Softmax深度学习入门笔记(十五):深度学习框架(TensorFlow和Pytorch之争)深度学习入门笔记(十六):计算机视觉之边缘检测深度学习入门笔记(十七):深度学习的极限在哪?深度学习入门笔记(十八):卷积神经网络(一)深度学习入门笔记(十九):卷积神经网络(二)深度学习入门笔记(二十):经典神经网络(LeNet-5、AlexNet和VGGNet)

参考文章

吴恩达——《神经网络和深度学习》视频课程

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。