神经网络工具箱函数
按字母顺序列表
按类别
深度学习
卷积神经网络
trainingOptions |
神经网络训练选项 |
trainNetwork |
训练卷积网络 |
imageInputLayer |
图像输入层 |
convolution2dLayer |
卷积的层 |
reluLayer |
整流线性单元(ReLU)层 |
crossChannelNormalizationLayer |
信道局部响应归一化层 |
averagePooling2dLayer |
平均池化层对象 |
maxPooling2dLayer |
最大池化层 |
fullyConnectedLayer |
全连接层 |
dropoutLayer |
辍学层 |
softmaxLayer |
用于卷积神经网络的Softmax层 |
classificationLayer |
创建一个分类输出层 |
regressionLayer |
创建一个回归输出层 |
激活 |
计算卷积神经网络层激活 |
预测 |
使用训练好的卷积神经网络预测反应 |
分类 |
使用训练好的卷积神经网络对数据进行分类 |
deepDreamImage |
使用深度梦境可视化网络特征 |
alexnet |
预训练的AlexNet卷积神经网络 |
vgg16 |
预训练的vg -16卷积神经网络 |
vgg19 |
预训练VGG-19卷积神经网络 |
importCaffeLayers |
从Caffe导入卷积神经网络层 |
importCaffeNetwork |
从Caffe导入预训练的卷积神经网络模型 |
SeriesNetwork |
系列网络类 |
TrainingOptionsSGDM |
带有动量的随机梯度下降的训练选项 |
层 |
网络层 |
ImageInputLayer |
图像输入层 |
Convolution2DLayer |
卷积的层 |
ReLULayer |
整流线性单元(ReLU)层 |
CrossChannelNormalizationLayer |
信道局部响应归一化层 |
AveragePooling2DLayer |
平均池化层对象 |
MaxPooling2DLayer |
最大池化层 |
FullyConnectedLayer |
全连接层 |
DropoutLayer |
辍学层 |
SoftmaxLayer |
用于卷积神经网络的Softmax层 |
ClassificationOutputLayer |
分类输出层 |
RegressionOutputLayer |
回归输出层 |
Autoencoders
Autoencoder |
Autoencoder类 |
trainAutoencoder |
训练一个自动编码器 |
trainSoftmaxLayer |
训练一个softmax层进行分类 |
解码 |
解码编码数据 |
编码 |
编码输入数据 |
generateFunction |
生成一个MATLAB函数来运行自动编码器 |
generate金宝appSimulink |
为自动编码器生成一个S金宝appimulink模型 |
网络 |
将自动编码器对象转换为网络对象 |
plotWeights |
绘制自编码器编码器权重的可视化图 |
预测 |
使用训练过的自编码器重建输入 |
堆栈 |
将几个自动编码器的编码器堆叠在一起 |
视图 |
视图autoencoder |
函数逼近与非线性回归
nnstart |
神经网络入门GUI |
视图 |
查看神经网络 |
fitnet |
函数拟合神经网络 |
feedforwardnet |
前馈神经网络 |
cascadeforwardnet |
级联前向神经网络 |
火车 |
训练神经网络 |
trainlm |
Levenberg-Marquardt反向传播 |
trainbr |
贝叶斯正则化反向传播 |
trainscg |
缩放共轭梯度反向传播 |
trainrp |
有弹性的反向传播 |
均方误差 |
均方归一化误差性能函数 |
回归 |
线性回归 |
ploterrhist |
绘图误差直方图 |
plotfit |
图函数拟合 |
plotperform |
图网络性能 |
plotregression |
线性回归 |
plottrainstate |
图训练状态值 |
genFunction |
生成模拟神经网络的MATLAB函数 |
模式识别与分类
Autoencoder |
Autoencoder类 |
nnstart |
神经网络入门GUI |
视图 |
查看神经网络 |
trainAutoencoder |
训练一个自动编码器 |
trainSoftmaxLayer |
训练一个softmax层进行分类 |
解码 |
解码编码数据 |
编码 |
编码输入数据 |
预测 |
使用训练过的自编码器重建输入 |
堆栈 |
将几个自动编码器的编码器堆叠在一起 |
网络 |
将自动编码器对象转换为网络对象 |
patternnet |
模式识别网络 |
lvqnet |
学习矢量量化神经网络 |
火车 |
训练神经网络 |
trainlm |
Levenberg-Marquardt反向传播 |
trainbr |
贝叶斯正则化反向传播 |
trainscg |
缩放共轭梯度反向传播 |
trainrp |
有弹性的反向传播 |
均方误差 |
均方归一化误差性能函数 |
回归 |
线性回归 |
中华民国 |
接收机工作特性 |
plotconfusion |
地块分类混淆矩阵 |
ploterrhist |
绘图误差直方图 |
plotperform |
图网络性能 |
plotregression |
线性回归 |
plotroc |
图接收机工作特性 |
plottrainstate |
图训练状态值 |
crossentropy |
神经网络性能 |
genFunction |
生成模拟神经网络的MATLAB函数 |
聚类
自组织映射
nnstart |
神经网络入门GUI |
视图 |
查看神经网络 |
selforgmap |
自组织映射 |
火车 |
训练神经网络 |
plotsomhits |
绘制自组织地图样本命中 |
plotsomnc |
绘制自组织映射邻居连接 |
plotsomnd |
绘制自组织映射邻居距离 |
plotsomplanes |
绘制自组织地图权重平面 |
plotsompos |
绘制自组织地图权重位置 |
plotsomtop |
绘制自组织映射拓扑 |
genFunction |
生成模拟神经网络的MATLAB函数 |
竞争层
competlayer |
竞争层 |
视图 |
查看神经网络 |
火车 |
训练神经网络 |
trainru |
无监督随机顺序权重/偏差训练 |
learnk |
Kohonen权重学习函数 |
learncon |
良心偏误学习功能 |
genFunction |
生成模拟神经网络的MATLAB函数 |
时间序列与动态系统
基于NARX和时滞网络的建模与预测
nnstart |
神经网络入门GUI |
视图 |
查看神经网络 |
timedelaynet |
时滞神经网络 |
narxnet |
带外部输入的非线性自回归神经网络 |
narnet |
非线性自回归神经网络 |
layrecnet |
层递归神经网络 |
distdelaynet |
分布式时延网络 |
火车 |
训练神经网络 |
gensim |
生成神经网络仿真的金宝appSimulink块 |
adddelay |
增加神经网络响应的延迟 |
removedelay |
消除神经网络的响应延迟 |
closeloop |
将神经网络开环反馈转化为闭环 |
openloop |
将神经网络闭环反馈转化为开环 |
ploterrhist |
绘图误差直方图 |
plotinerrcorr |
绘制输入误差时间序列互相关图 |
plotregression |
线性回归 |
plotresponse |
绘制动态网络时间序列响应图 |
ploterrcorr |
绘制误差时间序列的自相关性 |
genFunction |
生成模拟神经网络的MATLAB函数 |
创建Simulin金宝appk模型
gensim |
生成神经网络仿真的金宝appSimulink块 |
setsiminit |
设置神经网络Simulink块初始条件金宝app |
getsiminit |
得到Si金宝appmulink神经网络块初始输入和层延迟状态 |
sim2nndata |
将Simulin金宝appk时间序列转换为神经网络数据 |
nndata2sim |
将神经网络数据转换为Simulink时间序列金宝app |
定义神经网络架构
网络 |
创建自定义神经网络 |
这个话题有用吗?