批归一化层
一批标准化规范化的数据在所有观测mini-batch层每个通道独立。加快卷积神经网络的训练,减少对网络的初始化,使用批卷积层之间的归一化层和非线性,如ReLU层。
正常化后,鳞片层的输入可学的比例因子γ可学的抵消和变化β。
创建一个批处理标准化层。层
= batchNormalizationLayer
创建一个批处理归一化层和设置可选的层
= batchNormalizationLayer (名称,值
)TrainedMean
,TrainedVariance
,ε
,参数和初始化,学习速率、正规化,的名字
使用一个或多个属性名称-值对。例如,batchNormalizationLayer('名称',' batchnorm ')
创建一个批处理标准化层的名称“batchnorm”
。
批处理规范化操作可实现元素x我的输入,首先计算的意思μB和方差σB2在空间、时间和观察每个通道独立维度。然后,计算归一化激活
在哪里ϵ是一个常数,提高数值稳定时方差很小。
允许输入的可能性为零均值和单位方差不是最佳的操作遵循批正常化,批处理规范化操作进一步转变和尺度转换激活使用
的偏移量β和规模因素γ在网络训练可学的参数更新。
进行预测和网络训练后,批规范化需要一个固定的均值和方差标准化数据。这个固定的均值和方差可以计算从训练数据训练后,或近似在训练使用运行统计计算。
如果“BatchNormalizationStatistics”
训练方法是“移动”
,那么软件接近批规范化使用运行估计和统计在训练,训练后,设置TrainedMean
和TrainedVariance
属性的最新值的均值和方差的估计,分别。
如果“BatchNormalizationStatistics”
训练方法是“人口”
网络训练完成后,软件通过数据和设置TrainedMean
和TrainedVariance
属性的均值和方差计算整个训练数据集,分别。
层使用TrainedMean
和TrainedVariance
在预测正常输入。
[1]约飞,谢尔盖和基督教Szegedy。“批量标准化:加速深层网络培训通过减少内部协变量的转变。“预印本,2015年3月2日提交。https://arxiv.org/abs/1502.03167。
trainNetwork
|trainingOptions
|reluLayer
|convolution2dLayer
|fullyConnectedLayer
|groupNormalizationLayer
|layerNormalizationLayer