主要内容

神经元模型

简单的神经元

神经网络的基本构件是单输入神经元,比如这个例子。

在此示例神经元中发生了三种不同的功能操作。首先,标量输入p乘以标量重量w形成产品wp,再次是标量。二,加权输入wp加到标量上偏见b形成净输入n.(在这种情况下,您可以将偏差视为转换功能f到左边的金额b.偏差很像重量,除了它具有恒定输入1.)最后,净输入通过了传递函数f,它产生标量输出一个.给出这三个过程的名称是:重量函数,净输入函数和传递函数。

对于许多类型的神经网络,权函数是权与输入的乘积,但其他的权函数(例如,权与输入之间的距离,|wp|)有时被使用。(对于重量函数列表,类型帮助nnweight..)最常见的净输入函数是带有偏差的加权输入的总和,但也可以使用其他运算,如乘法。(对于净输入函数列表,输入帮助nnnetinput..)径向基神经网络概论讨论如何使用距离,因为重量函数和乘法可以用作净输入功能。还有许多类型的传递函数。各种转移功能的示例在于转移函数.(对于传递函数列表,输入帮助nntransfer.)

请注意,wb都是可调神经元的标量参数。神经网络的核心思想是,这些参数可以被调整,从而使网络表现出一些想要的或有趣的行为。因此,您可以通过调整权重或偏差参数来训练网络完成特定的工作。

Deep Learning Toolbox™软件中的所有神经元都提供了偏倚,而偏倚在许多示例中都被使用,并且在这个工具箱中的大多数情况下都是假定的。然而,如果你愿意,你也可以忽略神经元中的偏倚。

转移函数

许多传递函数都包含在深度学习工具箱软件中。

其中两个最常用的功能如下所示。

下图说明了线性传递函数。

这种类型的神经元被用于多层网络的最后一层,用作函数近似器。这在多层浅层神经网络和反向传播训练

乙状结肠下面所示的传递函数取得的输入,该输入可以在加上和减号之间具有任何值,并将输出挤压到0到1的范围内。

这种传递函数通常用于多层网络的隐藏层,部分原因是它是可微的。

上面显示的每个传递函数图的右侧的正方形表示相关传递函数。这些图标取代了一般f在网络图块中显示所使用的特定传递函数。

有关传输函数的完整列表,类型帮助nntransfer.您还可以指定自己的传递函数。

您可以通过运行示例程序进行简单的神经元和各种传输功能进行实验nnd2n1.

向量输入神经元

简单神经元可以扩展到处理向量输入。一个神经元有一个R-element输入向量如下所示。这里是单独的输入元素

p 1 p 2 ... p R

乘以权重

w 1 1 w 1 2 ... w 1 R

将加权值送入求和结。它们的总和很简单Wp,(单行)矩阵的点产品W和矢量p.(除了点产品之外,还有其他重量函数,例如重量矩阵行和输入向量之间的距离,如径向基神经网络概论.)

神经元有偏见b,将其与加权输入相加,形成净输入n.(除求和外,还可以使用其他净输入函数,如乘法径向基神经网络概论.)净输入n是传递函数的论点f

n w 1 1 p 1 + w 1 2 p 2 + ... + w 1 R p R + b

当然,此表达式可以写在matlab中®代码

n = W*p + b

但是,您将很少在此级别编写代码,因此此类代码已内置为定义和模拟整个网络的功能。

缩写符号

上面所示的单个神经元的图包含很多细节。当您考虑与许多神经元的网络以及许多神经元的层时,有很多细节,主要思想往往会丢失。因此,作者已经设计了一个单个神经元的缩写符号。这个符号,后来在多个神经元的回路中使用,如图所示。

这里输入矢量p由左侧的纯度暗垂直条表示。尺寸p符号下方是否显示p在这个数字中R×1。(注意大写字母,例如R在前一个句子中,使用时使用大小一个向量)。因此,p是一个矢量R输入元素。这些输入乘以单行,R列矩阵W.和前面一样,一个常数1作为输入进入神经元,然后乘以一个标量偏差b.传递函数的净输入fn,偏见的总和b和产品Wp.此总和传递给传输函数f获得神经元的产出一个,在这种情况下是标量。请注意,如果存在多个神经元,则网络输出将是向量。

一个网络在上图中定义。层包括权重,乘法和求和操作(这里实现为矢量产品Wp),偏见b,传递函数f.输入数组,矢量p,不包括在或称为一层。

和我们一样简单的神经元,有三个在图层中发生的操作:权重函数(矩阵乘法或点产品,在这种情况下),网络输入功能(在这种情况下求和)和传递函数。

每次使用这种简化的网络符号时,矩阵的大小就显示在它们的矩阵变量名称下面。这个符号将允许您理解体系结构,并遵循与之相关的矩阵数学。

讨论了在转移函数,当要在图形中使用特定的传递函数时,该传递函数的符号代替f如上所示。这里有些例子。

您可以通过运行示例程序来试验二元神经元nnd2n2

相关话题