神经网络工具箱函数
按字母顺序列表
按类别
深度学习基础
alexnet |
预训练的AlexNet卷积神经网络 |
vgg16 |
预训练的vg -16卷积神经网络 |
vgg19 |
预训练VGG-19卷积神经网络 |
googlenet |
预训练GoogLeNet卷积神经网络 |
inceptionv3 |
预训练的Inception-v3卷积神经网络 |
resnet50 |
预训练的ResNet-50卷积神经网络 |
resnet101 |
预训练的ResNet-101卷积神经网络 |
importCaffeNetwork |
从Caffe导入预训练的卷积神经网络模型 |
importKerasNetwork |
导入预先训练好的Keras网络和权重 |
trainingOptions |
神经网络训练选项 |
trainNetwork |
为深度学习训练神经网络 |
深度学习图像分类
alexnet |
预训练的AlexNet卷积神经网络 |
vgg16 |
预训练的vg -16卷积神经网络 |
vgg19 |
预训练VGG-19卷积神经网络 |
googlenet |
预训练GoogLeNet卷积神经网络 |
inceptionv3 |
预训练的Inception-v3卷积神经网络 |
resnet50 |
预训练的ResNet-50卷积神经网络 |
resnet101 |
预训练的ResNet-101卷积神经网络 |
importCaffeNetwork |
从Caffe导入预训练的卷积神经网络模型 |
importKerasNetwork |
导入预先训练好的Keras网络和权重 |
trainingOptions |
神经网络训练选项 |
trainNetwork |
为深度学习训练神经网络 |
imageDataAugmenter |
配置镜像数据增强 |
augmentedImageSource |
生成批量增强图像数据 |
从头开始的深度学习训练
alexnet |
预训练的AlexNet卷积神经网络 |
vgg16 |
预训练的vg -16卷积神经网络 |
vgg19 |
预训练VGG-19卷积神经网络 |
googlenet |
预训练GoogLeNet卷积神经网络 |
inceptionv3 |
预训练的Inception-v3卷积神经网络 |
resnet50 |
预训练的ResNet-50卷积神经网络 |
resnet101 |
预训练的ResNet-101卷积神经网络 |
importCaffeLayers |
从Caffe导入卷积神经网络层 |
importCaffeNetwork |
从Caffe导入预训练的卷积神经网络模型 |
importKerasLayers |
从Keras网络导入序列网络或有向无环图层 |
importKerasNetwork |
导入预先训练好的Keras网络和权重 |
findPlaceholderLayers |
在使用importKerasLayers导入的Layer数组或LayerGraph中找到占位符层 |
PlaceholderLayer |
层替换不支持的Keras层金宝app |
imageInputLayer |
图像输入层 |
sequenceInputLayer |
序列输入层 |
convolution2dLayer |
二维卷积层 |
transposedConv2dLayer |
转置二维卷积层 |
fullyConnectedLayer |
全连接层 |
LSTMLayer |
长短期记忆层 |
reluLayer |
整流线性单元(ReLU)层 |
leakyReluLayer |
漏流整流线性单元(ReLU)层 |
clippedReluLayer |
剪切整流线性单元(ReLU)层 |
batchNormalizationLayer |
批处理规范化层 |
crossChannelNormalizationLayer |
信道局部响应归一化层 |
dropoutLayer |
辍学层 |
averagePooling2dLayer |
平均池化层 |
maxPooling2dLayer |
最大池化层 |
maxUnpooling2dLayer |
最大脱池层 |
additionLayer |
添加层 |
depthConcatenationLayer |
深度拼接层 |
softmaxLayer |
Softmax层 |
classificationLayer |
创建分类输出层 |
regressionLayer |
创建一个回归输出层 |
setLearnRateFactor |
设置层可学习参数的学习速率因子 |
setL2Factor |
设置层可学习参数的L2正则化因子 |
getLearnRateFactor |
得到层可学习参数的学习率因子 |
getL2Factor |
得到层可学习参数的L2正则化因子 |
trainingOptions |
神经网络训练选项 |
trainNetwork |
为深度学习训练神经网络 |
SeriesNetwork |
深度学习系列网络 |
DAGNetwork |
有向无环图(DAG)网络用于深度学习 |
imageDataAugmenter |
配置镜像数据增强 |
augmentedImageSource |
生成批量增强图像数据 |
layerGraph |
用于深度学习的网络层图 |
情节 |
绘制神经网络层图 |
addLayers |
在图层图中添加图层 |
connectLayers |
在图层图中连接图层 |
removeLayers |
从图层图中移除图层 |
disconnectLayers |
断开图层图中的图层 |
DAGNetwork |
有向无环图(DAG)网络用于深度学习 |
预测 |
使用训练过的深度学习神经网络预测反应 |
分类 |
使用经过训练的深度学习神经网络对数据进行分类 |
predictAndUpdateState |
使用训练有素的循环神经网络预测响应并更新网络状态 |
classifyAndUpdateState |
使用训练过的循环神经网络对数据进行分类并更新网络状态 |
resetState |
重置循环神经网络的状态 |
深度学习调优和可视化
trainingOptions |
神经网络训练选项 |
trainNetwork |
为深度学习训练神经网络 |
激活 |
计算卷积神经网络层激活 |
预测 |
使用训练过的深度学习神经网络预测反应 |
分类 |
使用经过训练的深度学习神经网络对数据进行分类 |
deepDreamImage |
使用深度梦境可视化网络特征 |
函数逼近与聚类
函数逼近与非线性回归
nnstart |
神经网络入门GUI |
视图 |
查看神经网络 |
fitnet |
函数拟合神经网络 |
feedforwardnet |
前馈神经网络 |
cascadeforwardnet |
级联前向神经网络 |
火车 |
训练神经网络 |
trainlm |
Levenberg-Marquardt反向传播 |
trainbr |
贝叶斯正则化反向传播 |
trainscg |
缩放共轭梯度反向传播 |
trainrp |
有弹性的反向传播 |
均方误差 |
均方归一化误差性能函数 |
回归 |
线性回归 |
ploterrhist |
绘图误差直方图 |
plotfit |
图函数拟合 |
plotperform |
图网络性能 |
plotregression |
线性回归 |
plottrainstate |
图训练状态值 |
genFunction |
生成模拟神经网络的MATLAB函数 |
模式识别
Autoencoder |
Autoencoder类 |
nnstart |
神经网络入门GUI |
视图 |
查看神经网络 |
trainAutoencoder |
训练一个自动编码器 |
trainSoftmaxLayer |
训练一个softmax层进行分类 |
解码 |
解码编码数据 |
编码 |
编码输入数据 |
预测 |
使用训练过的自编码器重建输入 |
堆栈 |
将几个自动编码器的编码器堆叠在一起 |
网络 |
将自动编码器对象转换为网络对象 |
patternnet |
模式识别网络 |
lvqnet |
学习矢量量化神经网络 |
火车 |
训练神经网络 |
trainlm |
Levenberg-Marquardt反向传播 |
trainbr |
贝叶斯正则化反向传播 |
trainscg |
缩放共轭梯度反向传播 |
trainrp |
有弹性的反向传播 |
均方误差 |
均方归一化误差性能函数 |
回归 |
线性回归 |
中华民国 |
接收机工作特性 |
plotconfusion |
地块分类混淆矩阵 |
ploterrhist |
绘图误差直方图 |
plotperform |
图网络性能 |
plotregression |
线性回归 |
plotroc |
图接收机工作特性 |
plottrainstate |
图训练状态值 |
crossentropy |
神经网络性能 |
genFunction |
生成模拟神经网络的MATLAB函数 |
聚类
自组织映射
nnstart |
神经网络入门GUI |
视图 |
查看神经网络 |
selforgmap |
自组织映射 |
火车 |
训练神经网络 |
plotsomhits |
绘制自组织地图样本命中 |
plotsomnc |
绘制自组织映射邻居连接 |
plotsomnd |
绘制自组织映射邻居距离 |
plotsomplanes |
绘制自组织地图权重平面 |
plotsompos |
绘制自组织地图权重位置 |
plotsomtop |
绘制自组织映射拓扑 |
genFunction |
生成模拟神经网络的MATLAB函数 |
竞争层
competlayer |
竞争层 |
视图 |
查看神经网络 |
火车 |
训练神经网络 |
trainru |
无监督随机顺序权重/偏差训练 |
learnk |
Kohonen权重学习函数 |
learncon |
良心偏误学习功能 |
genFunction |
生成模拟神经网络的MATLAB函数 |
Autoencoders
Autoencoder |
Autoencoder类 |
trainAutoencoder |
训练一个自动编码器 |
trainSoftmaxLayer |
训练一个softmax层进行分类 |
解码 |
解码编码数据 |
编码 |
编码输入数据 |
generateFunction |
生成一个MATLAB函数来运行自动编码器 |
generate金宝appSimulink |
为自动编码器生成一个S金宝appimulink模型 |
网络 |
将自动编码器对象转换为网络对象 |
plotWeights |
绘制自编码器编码器权重的可视化图 |
预测 |
使用训练过的自编码器重建输入 |
堆栈 |
将几个自动编码器的编码器堆叠在一起 |
视图 |
视图autoencoder |
定义浅层神经网络架构
网络 |
创建自定义神经网络 |
时间序列与控制系统,“,
时间序列与动态系统
基于NARX和时滞网络的建模与预测
nnstart |
神经网络入门GUI |
视图 |
查看神经网络 |
timedelaynet |
时滞神经网络 |
narxnet |
带外部输入的非线性自回归神经网络 |
narnet |
非线性自回归神经网络 |
layrecnet |
层递归神经网络 |
distdelaynet |
分布式时延网络 |
火车 |
训练神经网络 |
gensim |
生成神经网络仿真的金宝appSimulink块 |
adddelay |
增加神经网络响应的延迟 |
removedelay |
消除神经网络的响应延迟 |
closeloop |
将神经网络开环反馈转化为闭环 |
openloop |
将神经网络闭环反馈转化为开环 |
ploterrhist |
绘图误差直方图 |
plotinerrcorr |
绘制输入误差时间序列互相关图 |
plotregression |
线性回归 |
plotresponse |
绘制动态网络时间序列响应图 |
ploterrcorr |
绘制误差时间序列的自相关性 |
genFunction |
生成模拟神经网络的MATLAB函数 |
创建Simulin金宝appk模型
gensim |
生成神经网络仿真的金宝appSimulink块 |
setsiminit |
设置神经网络Simulink块初始条件金宝app |
getsiminit |
得到Si金宝appmulink神经网络块初始输入和层延迟状态 |
sim2nndata |
将Simulin金宝appk时间序列转换为神经网络数据 |
nndata2sim |
将神经网络数据转换为Simulink时间序列金宝app |
这个话题有用吗?