从系列:介绍了深度学习
探索背后的基本知识卷积神经网络(cnn)在这个MATLAB®技术讨论。广泛地说,卷积神经网络是一种常见的深度学习架构——但CNN究竟是什么?这个视频将这有时复杂概念分解成易于理解的部分。您将了解3概念:当地接受字段,共享重量和偏见,激活和池。
视频拉在一起这三个概念和向您展示如何配置了卷积神经网络层。
您还将了解3训练卷积神经网络进行图像分析的方法。其中包括:1。)从头训练模型;2)。使用转移学习(基于这个想法,您可以使用一种类型的知识问题解决类似的问题);3)。使用pretrained CNN提取特征训练机器学习模型。
了解更多关于使用MATLAB深度学习。
记录:2017年3月24日
卷积神经网络或CNN,深度学习的网络体系结构。它直接从图像学。CNN是由几层,过程和转换的输入产生一个输出。
你可以训练一个CNN图像分析任务,包括场景分类、目标检测和分割,图像处理。为了理解cnn是如何工作的,我们将讨论三个关键概念:当地接受字段,共享重量和偏见,激活和池。
最后,我们将简要讨论图像分析的三种方法训练cnn。
让我们从当地接受领域的概念。在一个典型的神经网络输入层中的每个神经元连接到一个隐层的神经元。然而,在CNN,只有一个小区域的输入层神经元连接到隐层神经元。这些区域被称为当地接受字段。
当地接受域翻译在一个图像创建一个功能映射从输入层到隐层神经元。你可以有效地使用卷积来实现这一过程。这就是为什么它被称为卷积神经网络。我们将讨论第二个概念是关于共享重量和偏见。
像一个典型的神经网络,CNN神经元权重和偏见。模型在培训过程中学习这些值,与每个新的培训,它不断更新他们的例子。然而,在美国有线电视新闻网(cnn)的情况下,权重和偏置值是相同的所有隐藏的神经元在给定层。
这意味着所有隐藏的神经元检测是相同的功能,比如边缘或blob,不同地区的形象。这使得翻译网络宽容的对象在一个图像。例如,一个网络训练识别猫将能够这样做当猫的形象。
我们的第三个和最后一个概念是激活和池。激活步骤转换适用于每个神经元的输出通过激活功能。修正线性单元,或ReLU是常用的激活函数的一个例子。需要一个神经元的输出和地图它最高的积极价值。
或者如果输出是负的,函数映射为零。您可以进一步转换的输出激活应用池一步一步。池的维度降低冷凝的特色地图小区域的神经元的输出到一个输出。这有助于简化下面的层,减少了参数的数量模型需要学习。
现在让我们把它放在一起。使用这三个概念,我们可以配置层CNN。一个CNN可以有几十或几百个隐藏层,每个学会检测图像中不同的特性。在这个特性图,我们可以看到,每一个隐层的复杂性增加学习图像特征。
例如,第一个隐层学习如何检测边缘,最后学习如何检测更复杂的形状。就像在一个典型的神经网络,最后一层连接每一个神经元,从最后一个隐层神经元的输出。这就产生了最终的输出。有三种方法可以使用cnn进行图像分析。
第一个方法是从头开始训练CNN。这种方法是非常准确的,尽管它也最具挑战性的,您可能需要成千上万的标记图像和巨大的计算资源。
第二种方法依赖于传输学习,基于这个想法,您可以使用一种类型的问题的知识来解决类似的问题。例如,您可以使用一个CNN模型识别训练动物来初始化和训练一个新的模型,区分轿车和卡车。
这种方法需要较少的数据和计算资源比第一次少。第三种方法,您可以使用一个pre-trained CNN提取特征训练机器学习模型。举个例子,一个隐藏层,已经学会图像中的边缘检测是许多不同领域的广泛的相关图片。此方法需要最少的数据和计算资源。
我希望你发现这个视频有用。欲了解更多信息,请访问MathWorks.com/deep-learning。
你也可以从下面的列表中选择一个网站:
选择中国网站(中文或英文)最佳站点的性能。其他MathWorks国家网站不优化的访问你的位置。