主要内容

多层浅层神经网络结构

本主题介绍了一个典型的多层浅层网络工作流的一部分。有关更多信息和其他步骤,请参见多层浅层神经网络和反向传播训练

神经元模型(logsig, tansig, purelin)

一个基本神经元R输入如下所示。每个输入都用适当的加权w.加权输入和偏差之和构成传递函数的输入f.神经元可以使用任何可微的传递函数f来产生他们的产出。

多层网络经常使用log-sigmoid传递函数logsig

这个函数logsig当神经元的净输入从负无穷到正无穷时,产生0到1之间的输出。

或者,多层网络可以使用tan-sigmoid传递函数tansig

s形输出神经元常用于模式识别问题,线性输出神经元常用于函数拟合问题。线性传递函数purelin如下所示。

这里描述的三个传递函数是多层网络中最常用的传递函数,但如果需要,也可以创建和使用其他可微的传递函数。

前馈神经网络

单层的网络年代logsig神经元有R输入的详细信息如下图所示,左边是输入的详细信息,右边是输入的层图。

前馈网络通常有一个或多个隐藏的s形神经元层,后面跟着一个线性神经元层。具有非线性传递函数的多层神经元允许网络学习输入和输出向量之间的非线性关系。线性输出层最常用于函数拟合(或非线性回归)问题。

另一方面,如果您想要限制网络的输出(例如在0和1之间),那么输出层应该使用s形传递函数(例如logsig).这是当网络用于模式识别问题时的情况(其中一个决策是由网络做出的)。

对于多层网络,层数决定了权值矩阵上的上标。在两层中使用了适当的符号tansig/purelin网络显示下一个。

该网络可用作一般函数近似器。只要隐层中有足够的神经元,它就能很好地逼近具有有限不连续点的任意函数。

现在已经定义了多层网络的体系结构,接下来的部分将描述设计过程。