Clipped整流线性单元(ReLU)层
被裁剪的ReLU层执行一个阈值操作,其中任何小于0的输入值都被设置为0,任何高于
这个操作相当于:
这种裁剪可以防止输出变得太大。
返回一个剪切的ReLU层,剪切上限等于层
设置可选层
的名字
Hannun, Awni, Carl Case, Jared Casper, Bryan Catanzaro, Greg Diamos, Erich Elsen, Ryan Prenger等。“深度语音:扩大端到端语音识别。”预印本,2014年12月17日提交。http://arxiv.org/abs/1412.5567