组规范化层
组归一化层对每个观测的跨信道分组子集的小批数据进行独立归一化。为了加快卷积神经网络的训练,降低对网络初始化的敏感性,可以在卷积层和非线性层之间使用群归一化层,如ReLU层。
标准化后,层使用可学习的比例因子缩放输入γ并通过可学习的偏移进行偏移β.
组规范化操作对元素进行规范化x我首先计算输入的平均值μG和方差σG2.每个观测的通道维的空间、时间和分组子集都是独立的。然后,计算归一化激活为
哪里ϵ是一个常数,当方差很小时,它可以提高数值稳定性。为了考虑到具有零均值和单位方差的输入对于分组归一化后的操作不是最优的可能性,分组归一化操作使用转换进一步转移和缩放激活
偏移量在哪里β和规模因素γ是在网络培训期间更新的可学习参数。
吴宇新,何开明“组织正常化。”ArXiv:1803.08494[Cs],2018年6月11日。http://arxiv.org/abs/1803.08494.
批处理规范化层
|convolution2dLayer
|完全连接层
|instanceNormalizationLayer
|layerNormalizationLayer
|雷卢耶
|trainingOptions
|trainNetwork