缩放共轭梯度反向传播
net.trainFcn= 'trainscg'
设置网络trainFcn
财产。
[
用以下方法训练网络trainedNet
,tr
) =火车(净
,……)trainscg
.
trainscg
是一个网络训练函数,根据缩放共轭梯度法更新权值和偏差值。
培训是根据trainscg
训练参数,此处显示其默认值:
net.trainParam.epochs
-训练的最大时代数。缺省值为1000。
net.trainParam.show
-显示器之间的时代(南
没有显示)。缺省值是25。
net.trainParam.showCommandLine
—命令行输出。默认值为假
.
net.trainParam.showWindow
-显示培训GUI。默认值为真正的
.
net.trainParam.goal
——性能目标。缺省值为0。
net.trainParam.time
-以秒为单位的最长训练时间。默认值为正
.
net.trainParam.min_grad
—最小性能梯度。默认值为1 e-6
.
net.trainParam.max_fail
—最大验证失败次数。默认值为6
.
net.trainParam.mu
-马夸特调整参数。缺省值为0.005。
net.trainParam.sigma
-确定在二阶导数近似的重量变化。默认值为5.0 e-5
.
net.trainParam.lambda
-调节黑森的不确定性的参数。默认值为5.0 e -
.
trainscg
可以训练任何网络,只要它的权值、净输入、传递函数都有导数函数。反向传播用于计算性能的导数性能
关于权重和偏差变量X
.
缩放共轭梯度算法是基于共轭方向的,如traincgp
,traincgf
,traincgb
,但该算法不会在每次迭代时执行行搜索。看到莫勒(神经网络, Vol. 6, 1993, pp. 525-533),以更详细地讨论缩放共轭梯度算法。
当下列任何一种情况发生时,培训停止:
的最大数目时代
(重复)。
的最高金额时间
是超过。
性能降到最低目标
.
性能梯度如下min_grad
.
验证性能的提高超过max_fail
自上次以来的次数减少(使用验证时)。
莫勒[1]。神经网络,第6卷,1993年,第525-533页