主要内容

fitnet

函数拟合神经网络

描述

例子

= fitnet (hiddenSizes返回隐藏层大小为的神经网络拟合函数hiddenSizes

例子

= fitnet (hiddenSizestrainFcn返回隐藏层大小为的神经网络拟合函数hiddenSizes和培训功能,由trainFcn

例子

全部折叠

加载训练数据。

[x, t] = simplefit_dataset;

1 -到- 94矩阵x包含输入值和1 × 94矩阵t包含关联的目标输出值。

构造一个具有10大小隐藏层的函数拟合神经网络。

网= fitnet (10);

查看网络。

视图(净)

输入和输出的大小为零。在训练过程中,软件根据训练数据调整这些尺寸。

培训网络使用训练数据。

网=火车(净,x, t);

查看训练有素的网络。

视图(净)

你可以看到输入和输出的大小都是1。

使用训练过的网络估计目标。

y =净(x);

评估训练网络的性能。默认的性能函数是均方误差。

穿孔=执行(净,y, t)
穿孔= 1.4639 e-04

函数拟合网络的默认训练算法为Levenberg-Marquardt (“trainlm”).使用贝叶斯正则化训练算法并比较性能结果。

网= fitnet (10,“trainbr”);网=火车(净,x, t);y =净(x);穿孔=执行(净,y, t)
穿孔= 3.2998平台以及

贝叶斯正则化训练算法提高了网络在估计目标值方面的性能。

输入参数

全部折叠

网络中隐藏层的大小,指定为行向量。向量的长度决定了网络中隐藏层的数量。

例子:例如,可以指定一个网络有3个隐藏层,其中第一个隐藏层大小为10,第二个隐藏层大小为8,第三个隐藏层大小为5,如下所示:(10、8、5)

输入和输出大小设置为零。在训练过程中,软件根据训练数据调整这些尺寸。

数据类型:|

训练函数名,指定为下列之一。

培训功能 算法
“trainlm”

Levenberg-Marquardt

“trainbr”

贝叶斯正则化

“trainbfg”

高炉煤气拟牛顿

“trainrp”

有弹性的反向传播

“trainscg”

按比例缩小的共轭梯度

“traincgb”

Powell/Beale restart的共轭梯度

“traincgf”

Fletcher-Powell共轭梯度

“traincgp”

Polak-Ribiere共轭梯度

“trainoss”

sec一步

“traingdx”

变量学习率梯度下降法

“traingdm”

动量梯度下降

“traingd”

梯度下降法

例子:例如,可以指定可变学习率梯度下降算法为训练算法,具体如下:“traingdx”

有关培训功能的更多信息,请参见多层浅层神经网络的训练与应用选择多层神经网络训练函数

数据类型:字符

输出参数

全部折叠

函数拟合网络,返回为网络对象。

提示

  • 函数拟合是在一组输入上训练神经网络以产生一组相关的目标输出的过程。在用所需的隐藏层和训练算法构造网络之后,必须使用一组训练数据对其进行训练。一旦神经网络匹配了数据,它就形成了输入-输出关系的泛化。然后,您可以使用经过训练的网络为未经过训练的输入生成输出。

介绍了R2010b