主要内容

多层浅层神经网络结构

本课题介绍了一个典型的多层浅层网络工作流程的一部分。有关更多信息和其他步骤,请参见多层浅层神经网络与反向传播训练

神经元模型(logsig, tansig, purelin)

一个基本神经元R输入如下所示。每个输入都有适当的权重w.加权输入和偏置的和形成传递函数的输入f.神经元可以使用任何可微的传递函数f来产生它们的输出。

多层网络经常使用Log-sigmoid传递函数logsig

这个函数logsig当神经元的净输入从负无穷到正无穷时,生成0到1之间的输出。

或者,多层网络可以使用Tan-sigmoid传递函数tansig

Sigmoid输出神经元通常用于模式识别问题,而线性输出神经元用于函数拟合问题。线性传递函数purelin如下所示。

这里描述的三个传递函数是多层网络中最常用的传递函数,但如果需要,也可以创建和使用其他可微的传递函数。

前馈神经网络

的单层网络年代logsig神经元有R左边显示输入的全部细节,右边显示层图。

前馈网络通常有一个或多个隐层的s形神经元,后面是一个输出层的线性神经元。具有非线性传递函数的多层神经元允许网络学习输入和输出向量之间的非线性关系。线性输出层最常用于函数拟合(或非线性回归)问题。

另一方面,如果你想约束网络的输出(比如在0和1之间),那么输出层应该使用sigmoid传递函数(比如logsig).当网络被用于模式识别问题(由网络做出决策)时,就是这种情况。

对于多层网络,层数决定权重矩阵的上标。在两层中使用适当的符号tansig/purelin下面显示的是网络。

该网络可用作一般函数逼近器。它可以很好地近似任何具有有限个不连续的函数,只要隐层中有足够的神经元。

既然已经定义了多层网络的体系结构,下面几节将描述设计过程。