参数初始化、数据预处理、逐层归一化、各种优化方法、超参数优化。
任何数学技巧都不能弥补信息的缺失。本文介绍网络优化方法
神经网络的问题
神经网络有很强的表达能力。但有优化问题和泛化问题。主要通过优化
和正则化
来提升网络。
优化问题
优化问题的难点
- 网络是一个非凸函数,深层网络的梯度消失问题,很难优化
- 网络结构多样性,很难找到通用优化方法
- 参数多、数据大,训练效率低
- 参数多,存在高维变量的非凸优化
低维空间非凸优化:存在局部最优点,难在初始化参数和逃离局部最优点
高维空间非凸优化:难在如何逃离鞍点
。 鞍点是梯度为0,但一些维度是最高点,另一些维度是最低点。
梯度下降法很难逃离鞍点。
梯度下降法面临的问题
- 如何初始化参数
- 预处理数据
- 如何选择合适的学习率,避免陷入局部最优
泛化问题
神经网络拟合能力很强,容易过拟合。解决过拟合的5个方法
参数初始化
对称权重问题
全0产生的对称权重问题
参数千万不能全0初始化。如果全0初始化,会导致隐层神经元激活值都相同,导致深层神经元没有区分性。这就是对称权重
现象。
通俗点:
- 每个神经元输出相同 -- BP时梯度也相同 -- 参数更新也相同
- 神经元之间就失去了不对称性的源头
应该对每个参数随机初始化
,打破这个对称权重现象,使得不同神经元之间区分性更好。
参数区间的选择
参数太小
时
使得Sigmoid
激活函数丢失非线性的能力。在0附近近似线性,多层神经网络的优势也不存在。
参数太大
时
Sigmoid
的输入会变得很大,输出接近1。梯度直接等于0。
选择一个合适的初始化区间非常重要。如果,一个神经元输入连接很多,那么每个输入连接上的权值就应该小一些。
高斯分布初始化
高斯分布也就是正态分布。
初始化一个深度网络,比较好的方案是保持每个神经元输入的方差为一个常量
。
如果神经元输入是
均匀分布初始化
在
Xavier均匀分布初始化
会自动计算超参数
设
logsitic
激活函数 :tanh
激活函数:
为了避免初始化参数使得激活值变得饱和,尽量使
假设
输入信号经过该神经元后,被放大或缩小了
为了使输入信号经过多层网络后,不被过分放大或过分缩小,应该使
综合前向和后向,使信号在前向和反向传播中都不被放大或缩小,综合设置方差:
数据预处理
为什么要归一化
每一维的特征的来源和度量单位不同,导致特征分布不同。
未归一化数据的3个坏处
- 样本之间的欧式距离度量不准。取值范围大的特征会占主导作用。类似于信息增益和信息增益比
- 降低神经网络的训练效率
- 降低梯度下降法的搜索效率
未归一化对梯度下降的影响
- 取值范围不同:大多数位置的梯度方向不是最优的,要多次迭代才能收敛
- 取值范围相同:大部分位置的梯度方向近似于最优搜索方向,每一步都指向最小值,训练效率大大提高

归一化要做的事情
- 各个维度特征归一化到同一个取值区间
- 消除不同特征的相关性
标准归一化
实际上是由中心化
和标准化
结合的。 把数据归一化到标准正态分布。
计算均值和方差
归一化数据,减均值除以标准差。如果

缩放归一化
把数据归一化到
白化
白化
用来降低输入数据特征之间的冗余性。白化主要使用PCA来去掉特征之间的相关性。我的白化笔记
处理后的数据
- 特征之间相关性较低
- 所有特征具有相同的方差

白化的缺点
可能会夸大数据中的噪声。所有维度都拉到了相同的数值范围。可能有一些差异性小、但大多数是噪声的维度。可以使用平滑来解决。
逐层归一化
原因
深层神经网络,中间层的输入是上一层的输出。每次SGD参数更新,都会导致每一层的输入分布发生改变。
像高楼,低楼层发生较小偏移,就会导致高楼层发生较大偏移。
如果某个层的输入发生改变,其参数就需要重新学习,这也是内部协变量偏移
问题。
在训练过程中,要使得每一层的输入分布保持一致。简单点,对每一个神经层进行归一化。
- 批量归一化
- 层归一化
- 其它方法
批量归一化
针对每一个维度,对每个batch的数据进行归一化+缩放平移。
批量归一化Batch Normalization
,我的BN详细笔记。 对每一层(单个神经元)的输入进行归一化
缩放参数
平移参数
- 强行归一化会破坏刚学习到的特征。用这两个变量去还原应该学习到的数据分布
- 归一化会聚集在0处,会减弱神经网络的非线性性质。缩放和平移解决这个问题
注意:
- BN是对中间层的单个神经元进行归一化
- 要求批量样本数量不能太小,否则难以计算单个神经元的统计信息
- 如果层的净输入的分布是动态变化的,则无法使用批量归一化。如循环神经网络
层归一化
对每个样本,对所有维度做一个归一化,即对同层的所有神经元的输入做归一化。
层归一化
是对一个中间层的所有神经元进行归一化- 批量归一化是对一个中间层的单个神经元进行归一化
设第均值
和方差
层归一化
如下,其中
层归一化的RNN
RNN的净输入一般会随着时间慢慢变大或变小,导致梯度爆炸或消失。
层归一化的RNN可以有效缓解梯度消失和梯度爆炸。
批归和层归对比
思想类似,都是标准归一化
+ 缩放和平移
。
- 批量归一化:针对每一个维度,对batch的所有数据做归一化
- 层归一化:针对每一个样本,对所有维度做归一化。可以用在RNN上,减小梯度消失和梯度爆炸。

其它归一化
权重归一化
对神经网络的连接权重进行归一化。
局部相应归一化
对同层的神经元进行归一化。但是局部响应归一化,用在激活函数之后,对邻近的神经元进行局部归一化。
梯度下降法的改进
梯度下降法
Mini-Batch
梯度下降法。设
在第
更新参数,其中学习率
1. BGD
Batch Gradient Descent
意义
:每一轮选择所有整个数据集去计算梯度更新参数
优点
- 凸函数,可以保证收敛到全局最优点;非凸函数,保证收敛到局部最优点
缺点
- 批量梯度下降非常慢。因为在整个数据集上计算
- 训练次数多时,耗费内存
- 不允许在线更新模型,例如更新实例
2. SGD
Stochastic Gradient Descent
意义
:每轮值选择一条数据去计算梯度更新参数
优点
- 算法收敛快(BGD每轮会计算很多相似样本的梯度,冗余的)
- 可以在线更新
- 有一定几率跳出比较差的局部最优而到达更好的局部最优或者全局最优
缺点
- 容易收敛到局部最优,并且容易困在鞍点
3. Mini-BGD
Mini-Batch Gradient Descent
意义
: 每次迭代只计算一个mini-batch的梯度去更新参数
优点
- 计算效率高,收敛较为稳定
缺点
- 更新方向依赖于当前batch算出的梯度,不稳定
4. 梯度下降法的难点
- 学习率
难以选择。太小,导致收敛缓慢;太大,造成较大波动妨碍收敛 - 学习率一直相同是不合理的。出现频率低的特征,大学习率;出现频率小的特征,小学习率
- 按迭代次数和loss阈值在训练时去调整学习率。然而次数和阈值难以设定,无法适应所有数据
- 很难逃离鞍点。梯度为0,一些特征是最高点(上升),一些特征是最低点(下降)
- 更新方向依赖于当前batch算出的梯度,不稳定
主要通过学习率递减和动量法来优化梯度下降法。
可以看出
- SGD,整体下降,但局部会来回震荡
- MBGD,一个batch来说,batch越大,下降越快,越平滑
- MBGD,整体来说,batch越小,下降越明显


学习率递减
0 指数加权平均
求10天的平均温度,可以直接利用平均数求,每天的权值是一样的,且要保存所有的数值才能计算。
设
则有指数加权平均
:
离当前越近,权值越大。越远,权值越小(指数递减),也有一定权值。
1. 按迭代次数递减
设置
反时衰减
指数衰减
:
自然指数衰减
2. AdaGrad
Adaptive Gradient
意义
:每次迭代时,根据历史梯度累积量来减小学习率,减小梯度。梯度平方的累计值来减小梯度
初始学习率
优点
- 累积梯度
的 实际上构成了一个约束项 - 前期
较小, 约束值大,能够放大梯度 - 后期
较大, 约束值小,能够约束梯度 - 适合处理稀疏梯度
缺点
- 经过一些迭代,学习率会变非常小,参数难以更新。过早停止训练
- 依赖于人工设置的全局学习率
设置过大,约束项大,则对梯度的调节太大
3. RMSprop
意义:计算梯度指数递减移动平均
, 即梯度平方的平均值来减小梯度
优点
- 解决了AdaGrad学习率一直递减过早停止训练的问题,学习率可大可小
- 训练初中期,加速效果不错,很快;训练后期,反复在局部最小值抖动
- 适合处理非平稳目标,对于RNN效果很好
缺点
- 依然依赖于全局学习率
4. AdaDelta
意义
不初始化学习率。计算梯度更新差平方的指数衰减移动平均
来作为分子学习率,
优点
- 初始学习率
改成了动态计算的 ,一定程度上平抑了学习率的波动。
动量法
结合前面更新的方向和当前batch的方向,来更新参数。
解决了MBGD的不稳定性,增加了稳定性
。可以加速
或者减速
。
1. 普通动量法
设移动加权平均
当前梯度与最近时刻的梯度方向:
- 前后梯度方向一致:参数更新幅度变大,会加速
- 前后梯度方向不一致:参数更新幅度变小,会减速
优点:
- 迭代初期,梯度方向一致,动量法加速,更快到达最优点
- 迭代后期,梯度方向不一致,在收敛值附近震荡,动量法会减速,增加稳定性
当前梯度叠加上上次的梯度,可以近似地看成二阶梯度。

Adam
Adaptive Momentum Estimation
= RMSProp
+ Momentum
, 即自适应学习率+稳定性(动量法)。
意义:计算梯度动量
),计算梯度平方自适应alpha
)
设
优点
- 有RMSprop的处理非稳态目标的优点,有Adagrad处理稀疏梯度的优点
- 对内存需求比较小,高效地计算
- 为不同的参数计算不同的自适应学习率
- 适用于大多数的非凸优化
- 超参数好解释,只需极少量的调参



梯度截断
一般按模截断,如果
超参数优化
优化内容和难点
优化内容
- 网络结构:神经元之间连接关系、层数、每层的神经元数量、激活函数类型等
- 优化参数:优化方法、学习率、小批量样本数量
- 正则化系数
优化难点
- 参数优化是组合优化问题,没有梯度下降法来优化,没有通用的有效的方法
- 评估一组超参数配置的实际代价非常高
配置说明
- 有
个超参数, 每个超参数配置表示为1个向量 是衡量超参数配置 效果的函数 不是 的连续函数, 也不同。 无法使用梯度下降等优化方法
超参数设置-搜索
超参数设置:人工搜索、网格搜索、随机搜索。
缺点:没有利用到不同超参数组合之间的相关性,搜索方式都比较低效。
1. 网格搜索
对于
如果超参数是连续的,可以根据经验选择一些经验值,比如学习率
对这些超参数的不同组合,分别训练一个模型,测试在开发集上的性能。选取一组性能最好的配置。
2. 随机搜索
有的超参数对模型影响力有限(正则化),有的超参数对模型性能影响比较大。网格搜索会遍历所有的可能性。
随机搜索:对超参数进行随机组合,选择一个性能最好的配置。
优点:比网格搜索好,更容易实现,更有效。
贝叶斯优化
根据当前已经试验的超参数组合,来预测下一个可能带来的最大收益的组合。
贝叶斯优化过程:根据已有的N组试验结果来建立高斯过程,计算
动态资源分配
在早期阶段,估计出一组配置的效果会比较差,则中止这组配置的评估。把更多的资源留给其他配置。
这是多臂赌博机的泛化问题:最优赌博机。在给定有限次数的情况下,玩赌博机,找到收益最大的臂。
神经架构搜索
通过神经网络来自动实现网络架构的设计。
- 变长字符串 -- 描述神经网络的架构
- 控制器 -- 生成另一个子网络的架构描述
- 控制器 -- RNN来实现
- 控制器训练 -- 强化学习来完成
- 奖励信号 -- 生成的子网络在开发集上的准确率