layerNormalizationLayer
一层一层正常化
描述
一层一层标准化规范化mini-batch数据在所有渠道为每个独立的观察。加快复发性和多层感知器神经网络训练,减少对网络的初始化,使用层标准化层后可学的层,如LSTM和完全连接层。
正常化后,鳞片层的输入可学的比例因子γ可学的抵消和变化β。
创建
属性
例子
算法
层标准化操作可实现元素x我的输入,首先计算的意思μl和方差σl2在空间、时间和通道尺寸为每个独立的观察。然后,计算归一化激活
在哪里ϵ是一个常数,提高数值稳定时方差很小。
允许输入的可能性为零均值和单位方差不是最佳的操作遵循层标准化,规范化操作进一步转变和尺度激活层使用转换
的偏移量β和规模因素γ在网络训练可学的参数更新。
引用
[1]英航,吉米,杰米•瑞恩Kiros和杰弗里·e·辛顿。“层正常化。“预印本,提交2016年7月21日。https://arxiv.org/abs/1607.06450。