主要内容

fitnet

功能拟合神经网络

描述

例子

= fitnet(Hiddensize.的)返回具有隐藏层大小的函数拟合神经网络Hiddensize.

例子

= fitnet(Hiddensize.训练码的)返回具有隐藏层大小的函数拟合神经网络Hiddensize.和训练功能,指定训练码

例子

全部收缩

加载培训数据。

[x, t] = simplefit_dataset;

1 -到- 94矩阵X包含输入值和1-by-94矩阵T.包含关联的目标输出值。

用一个隐藏的大小10层构造拟合神经网络的功能。

NET = FITNET(10);

查看网络。

视图(净)

输入和输出的大小为零。根据培训数据,软件在训练期间调整这些规模。

训练网络使用训练数据。

网=火车(网,X,T);

查看培训的网络。

视图(净)

您可以看到输入和输出的大小为1。

使用训练过的网络估计目标。

y = net(x);

评估训练网络的性能。默认的性能函数是均方误差。

perf =执行(net,y,t)
穿孔= 1.4639 e-04

函数拟合网络的默认训练算法是Levenberg-Marquardt('trainlm')。使用贝叶斯正则化训练算法并比较性能结果。

net = fitnet(10,“trainbr”);网=火车(网,X,T);y = net(x);perf =执行(net,y,t)
穿孔= 3.2998平台以及

贝叶斯正则化训练算法提高了网络在估计目标值方面的性能。

输入参数

全部收缩

网络中隐藏图层的大小,指定为行向量。向量的长度确定网络中的隐藏层的数量。

例子:例如,您可以指定具有3个隐藏图层的网络,其中第一个隐藏图层大小为10,第二个是8,第三个是5如下:[10,8,5]

输入和输出大小设置为零。根据培训数据,软件在训练期间调整这些规模。

数据类型:单身的|双倍的

培训函数名称,指定为以下之一。

训练功能 算法
'trainlm'

Levenberg-Marquardt

“trainbr”

贝叶斯正则化

'trainbfg'

BFGS Quasi-Newton

“trainrp”

弹性反向化

“trainscg”

缩放共轭梯度

'traincgb'

与鲍威尔/野鸽的共轭渐变重启

'traincgf'

Fletcher-Powell共轭梯度

“traincgp”

Polak-ribiére共轭渐变

“trainoss”

sec一步

'traingdx'

可变学习率梯度下降

“traingdm”

梯度下降动量

“traingd”

梯度下降法

例子:例如,您可以指定变量学习速率梯度下降算法作为培训算法如下:'traingdx'

有关培训函数的更多信息,请参阅火车和应用多层浅神经网络选择多层神经网络训练函数

数据类型:字符

输出参数

全部收缩

功能拟合网络,返回a网络对象。

提示

  • 功能拟合是在一组输入上训练神经网络的过程,以便产生相关的一组目标输出。使用所需的隐藏层和培训算法构建网络后,必须使用一组培训数据培训它。一旦神经网络符合数据,它就会形成输入输出关系的泛化。然后,您可以使用训练有素的网络为未培训的输入生成输出。

介绍在R2010B.