实例规范化层
实例归一层为每个观察单独地在每个通道上归一小批数据。为了提高卷积神经网络训练的收敛性并降低对网络超参数的敏感性,在卷积层和非线性层之间使用实例归一化层,如ReLU层。
归一化后,该层用一个可学习的比例因子对输入进行缩放γ然后用一个可学习偏移量平移它β.
实例规范化操作将元素规范化x我首先计算平均值μ我和方差σ我2在空间和时间维度上为每个通道在每个观测独立。然后,计算归一化激活为
在哪里ϵ是在方差很小时提高数值稳定性的常数。
为了考虑均值和单位方差为零的输入对于实例归一化之后的操作不是最优的可能性,实例归一化操作使用转换进一步转移和扩展激活
其中偏移量β还有比例因子γ是在网络训练期间更新的可学习参数。
trainNetwork
|trainingOptions
|reluLayer
|convolution2dLayer
|fullyConnectedLayer
|batchNormalizationLayer
|groupNormalizationLayer
|layerNormalizationLayer