神经网络工具箱功能
按字母顺序列表
按类别
一个
激活 |
计算卷积神经网络层激活 |
适应 |
使神经网络适应模拟数据 |
adaptwb |
适应具有权重和偏差学习规则的网络 |
adddelay |
增加神经网络响应的延迟 |
alexnet |
预训练的AlexNet卷积神经网络 |
Autoencoder |
Autoencoder类 |
AveragePooling2DLayer |
平均池化层对象 |
averagePooling2dLayer |
平均池化层对象 |
B
boxdist |
两个位置向量之间的距离 |
C
cascadeforwardnet |
级联前向神经网络 |
catelements |
连接神经网络数据元素 |
catsamples |
连接神经网络数据样本 |
catsignals |
连接神经网络数据信号 |
cattimesteps |
连接神经网络数据时间步 |
classificationLayer |
创建一个分类输出层 |
ClassificationOutputLayer |
分类输出层 |
分类 |
使用训练过的卷积神经网络对数据进行分类 |
closeloop |
将神经网络开环反馈转化为闭环反馈 |
combvec |
创建所有向量的组合 |
专业 |
竞争传递函数 |
competlayer |
竞争层 |
con2seq |
将并发向量转换为顺序向量 |
配置 |
配置网络输入和输出,使输入和目标数据最佳匹配 |
混乱 |
分类混淆矩阵 |
Convolution2DLayer |
卷积的层 |
convolution2dLayer |
卷积的层 |
convwf |
卷积权函数 |
CrossChannelNormalizationLayer |
通道方面的本地响应规范化层 |
crossChannelNormalizationLayer |
通道方面的本地响应规范化层 |
crossentropy |
神经网络性能 |
D
解码 |
解码编码数据 |
deepDreamImage |
用深度梦来可视化网络特征 |
disp |
神经网络特性 |
显示 |
神经网络变量的名称和性质 |
经销 |
欧氏距离权函数 |
distdelaynet |
分布式延时网络 |
divideblock |
使用索引块将目标划分为三组 |
divideind |
使用指定的指标将目标分为三组 |
divideint |
使用交叉指标将目标分为三组 |
dividerand |
使用随机指标将目标分为三组 |
dividetrain |
将所有目标分配到训练集 |
dotprod |
点乘权函数 |
DropoutLayer |
辍学层 |
dropoutLayer |
辍学层 |
E
elliot2sig |
Elliot 2对称sigmoid传递函数 |
elliotsig |
Elliot对称sigmoid传递函数 |
elmannet |
埃尔曼神经网络 |
编码 |
编码输入数据 |
errsurf |
单输入神经元的误差曲面 |
extendts |
将时间序列数据扩展到给定的时间步数 |
F
feedforwardnet |
前馈神经网络 |
fitnet |
函数拟合神经网络 |
fixunknowns |
通过用未知值标记行来处理数据 |
formwb |
将偏差和权重形成一个向量 |
fromnndata |
将数据从标准神经网络单元阵列形式转换 |
FullyConnectedLayer |
全连通层 |
fullyConnectedLayer |
全连通层 |
G
盖德 |
广义加法 |
gdivide |
推广部门 |
generateFunction |
生成一个MATLAB函数来运行自动编码器 |
generate金宝appSimulink |
为自动编码器生成一个S金宝appimulink模型 |
genFunction |
生成仿真神经网络的MATLAB函数 |
gensim |
生成Simulin金宝appk块用于神经网络仿真 |
getelements |
获取神经网络数据元素 |
getsamples |
获取神经网络数据样本 |
getsignals |
获取神经网络数据信号 |
getsiminit |
得到Si金宝appmulink神经网络块初始输入和层延迟状态 |
gettimesteps |
获取神经网络数据时间步 |
getwb |
得到单向量的网络权值和偏置值 |
gmultiply |
广义的乘法 |
gnegate |
广义的否定 |
gridtop |
网格层拓扑函数 |
gsqrt |
广义平方根 |
gsubtract |
广义减法 |
H
hardlim |
硬极限传递函数 |
hardlims |
对称硬极限传递函数 |
hextop |
六方层拓扑函数 |
我
ImageInputLayer |
图像输入层 |
imageInputLayer |
图像输入层 |
importCaffeLayers |
从Caffe导入卷积神经网络层 |
importCaffeNetwork |
从Caffe导入预先训练的卷积神经网络模型 |
ind2vec |
将指标转换为向量 |
初始化 |
初始化神经网络 |
initcon |
良心偏差初始化函数 |
initlay |
逐层网络初始化功能 |
initlvq |
LVQ权值初始化函数 |
initnw |
Nguyen-Widrow层初始化函数 |
initwb |
由权值和偏置层初始化函数 |
initzero |
零权和偏差初始化函数 |
isconfigured |
指示是否配置了网络输入和输出 |
l
层 |
网络层 |
layrecnet |
层递归神经网络 |
learncon |
良心偏差学习功能 |
learngd |
梯度下降权值和偏差学习函数 |
learngdm |
梯度下降与动量权和偏差学习功能 |
learnh |
赫布权值学习规则 |
learnhd |
Hebb衰减权值学习规则 |
learnis |
Instar权重学习功能 |
learnk |
Kohonen权值学习函数 |
learnlv1 |
LVQ1权值学习函数 |
learnlv2 |
LVQ2.1权重学习函数 |
learnos |
Outstar权重学习功能 |
learnp |
感知器权值和偏差学习函数 |
learnpn |
归一化感知器权值和偏差学习函数 |
learnsom |
自组织地图权重学习功能 |
learnsomb |
批量自组织地图权重学习功能 |
learnwh |
Widrow-Hoff权重/偏差学习函数 |
linearlayer |
线性层 |
linkdist |
链接距离函数 |
logsig |
Log-sigmoid传递函数 |
lvqnet |
学习矢量量化神经网络 |
lvqoutputs |
LVQ输出处理功能 |
米
美 |
平均绝对误差性能函数 |
mandist |
曼哈顿距离权函数 |
mapminmax |
通过将行最小值和最大值映射到[-1 1]来处理矩阵 |
mapstd |
通过将每一行的均值映射为0,将偏差映射为1来处理矩阵 |
maxlinlr |
线性层的最大学习率 |
MaxPooling2DLayer |
最大池化层 |
maxPooling2dLayer |
最大池化层 |
meanabs |
矩阵或矩阵的绝对元素的平均值 |
meansqr |
矩阵或矩阵的平方元素的平均值 |
中点 |
中点权值初始化函数 |
极大极小 |
矩阵行范围 |
均方误差 |
均方归一化误差性能函数 |
N
narnet |
非线性自回归神经网络 |
narxnet |
带有外部输入的非线性自回归神经网络 |
negdist |
负距离权函数 |
netinv |
逆传递函数 |
netprod |
积净输入函数 |
netsum |
净输入函数和 |
网络 |
将自动编码器对象转换为网络对象 |
网络 |
创建自定义神经网络 |
newgrnn |
设计广义回归神经网络 |
newlind |
设计线性层 |
newpnn |
设计概率神经网络 |
newrb |
径向基网络设计 |
newrbe |
设计精确的径向基网络 |
nncell2mat |
将神经网络细胞数据合并为矩阵 |
nncorr |
神经网络时间序列之间的交叉相关 |
nndata |
创建神经网络数据 |
nndata2sim |
将神经网络数据转换为Simulink时间序列金宝app |
nnsize |
神经数据元素、样本、时间步和信号的数量 |
nnstart |
神经网络开始GUI |
nntraintool |
神经网络训练工具 |
normc |
矩阵列的归一化 |
normprod |
归一化点积权函数 |
normr |
矩阵的归一化行 |
numelements |
神经网络数据中的元素数 |
numfinite |
神经网络数据中有限值的个数 |
numnan |
神经网络数据中NaN值的数目 |
numsamples |
神经网络数据中的样本数量 |
numsignals |
神经网络数据中的信号数量 |
numtimesteps |
神经网络数据中的时间步数 |
O
openloop |
将神经网络闭环反馈转化为开环反馈 |
P
patternnet |
模式识别网络 |
感知器 |
感知器 |
执行 |
计算网络性能 |
plotconfusion |
地块分类混淆矩阵 |
plotep |
在误差面上画出权重偏差位置 |
ploterrcorr |
绘制误差时间序列的自相关图 |
ploterrhist |
绘制误差直方图 |
情节 |
绘制单输入神经元的误差曲面 |
plotfit |
图函数拟合 |
plotinerrcorr |
绘制输入误差时间序列相互关系图 |
plotpc |
感知器向量图上的分类线 |
plotperform |
图网络性能 |
plotpv |
绘制感知器输入/目标向量图 |
plotregression |
Plot线性回归 |
plotresponse |
绘制动态网络时间序列响应图 |
plotroc |
情节接收器工作特性 |
plotsomhits |
绘制自组织地图样本命中 |
plotsomnc |
绘制自组织地图邻居连接 |
plotsomnd |
绘制自组织地图邻居距离 |
plotsomplanes |
绘制自组织地图权重平面 |
plotsompos |
绘制自组织地图权重位置 |
plotsomtop |
绘制自组织地图拓扑 |
plottrainstate |
绘制训练状态值 |
plotv |
把向量画成从原点开始的直线 |
plotvec |
画出不同颜色的向量 |
plotwb |
绘制权重和偏差值的辛顿图 |
plotWeights |
绘制自动编码器的编码器的权重的可视化图 |
pnormc |
对矩阵的列进行伪规范化 |
poslin |
正线性传递函数 |
预测 |
使用训练过的卷积神经网络预测响应 |
预测 |
使用训练过的自动编码器重建输入 |
preparets |
为网络模拟或训练准备输入和目标时间序列数据 |
processpca |
用主成分分析处理矩阵列 |
修剪 |
删除大小为零的神经输入、层和输出 |
prunedata |
对数据进行修剪,使其与修剪后的网络保持一致 |
purelin |
线性传递函数 |
问
定量 |
将数值离散为数量的倍数 |
R
radbas |
径向基传递函数 |
radbasn |
归一化径向基传递函数 |
randnc |
归一化列权重初始化函数 |
randnr |
归一化行权初始化函数 |
兰德 |
对称随机权重/偏差初始化函数 |
randsmall |
小随机权重/偏差初始化函数 |
randtop |
随机层拓扑函数 |
回归 |
线性回归 |
regressionLayer |
创建一个回归输出层 |
RegressionOutputLayer |
回归输出层 |
ReLULayer |
整流线性单元(ReLU)层 |
reluLayer |
整流线性单元(ReLU)层 |
removeconstantrows |
通过删除具有恒定值的行来处理矩阵 |
removedelay |
去除神经网络响应的延迟 |
removerows |
通过删除具有指定索引的行来处理矩阵 |
中华民国 |
接收机工作特性 |
年代
sae |
和绝对误差性能函数 |
satlin |
饱和线性传递函数 |
satlins |
对称饱和线性传递函数 |
scalprod |
标量积权函数 |
selforgmap |
自组织映射 |
separatewb |
从权重/偏差向量中分离偏差和权重值 |
seq2con |
将顺序向量转换为并发向量 |
SeriesNetwork |
系列网络类 |
setelements |
设置神经网络数据元素 |
setsamples |
设置神经网络数据样本 |
setsignals |
设置神经网络数据信号 |
setsiminit |
设置Simulink神经网络块初始条件金宝app |
settimesteps |
设置神经网络数据时间步 |
setwb |
用单个向量设置所有的网络权值和偏置值 |
sim卡 |
模拟神经网络 |
sim2nndata |
将Simulin金宝appk时间序列转换为神经网络数据 |
softmax |
软最大传递函数 |
SoftmaxLayer |
用于卷积神经网络的Softmax层 |
softmaxLayer |
用于卷积神经网络的Softmax层 |
srchbac |
使用回溯的一维最小化 |
srchbre |
使用布伦特方法进行一维间隔定位 |
srchcha |
Charalambous方法的一维极小化 |
srchgol |
利用黄金分割搜索实现一维最小化 |
srchhyb |
使用混合二分-三次搜索的一维极小化 |
上交所 |
和平方和误差性能函数 |
堆栈 |
将几个自动编码器中的编码器堆叠在一起 |
sumabs |
矩阵或矩阵绝对元素的和 |
sumsqr |
矩阵或矩阵元素的平方和 |
T
tansig |
双曲切线sigmoid传递函数 |
tapdelay |
位移神经网络时间序列数据的抽头延迟 |
timedelaynet |
时滞神经网络 |
tonndata |
将数据转换为标准的神经网络单元阵列形式 |
火车 |
训练神经网络 |
trainAutoencoder |
训练自动编码器 |
trainb |
具有权重和偏差学习规则的批量训练 |
trainbfg |
BFGS准牛顿反向传播 |
trainbr |
贝叶斯正则化反向传播 |
trainbu |
批量无监督权重/偏差训练 |
trainc |
周期性订单权重/偏差训练 |
traincgb |
共轭梯度反向传播与鲍威尔-比尔重启 |
traincgf |
共轭梯度反向传播与Fletcher-Reeves更新 |
traincgp |
共轭梯度反向传播与Polak-Ribiére更新 |
traingd |
梯度下降反向传播 |
traingda |
具有自适应学习率的梯度下降反向传播 |
traingdm |
带有动量反向传播的梯度下降 |
traingdx |
梯度下降与动量和自适应学习率反向传播 |
trainingOptions |
训练神经网络的选项 |
TrainingOptionsSGDM |
带动量的随机梯度下降训练选项 |
trainlm |
Levenberg-Marquardt反向传播 |
trainNetwork |
训练卷积网络 |
trainoss |
一步正割反向传播 |
trainr |
具有学习功能的随机顺序增量训练 |
trainrp |
有弹性的反向传播 |
trainru |
无监督随机顺序权重/偏差训练 |
火车 |
具有学习功能的顺序增量训练 |
trainscg |
缩放共轭梯度反向传播 |
trainSoftmaxLayer |
训练一个用于分类的softmax层 |
tribas |
三角基传递函数 |
tritop |
三角层拓扑函数 |
U
应取消 |
取消配置网络输入和输出 |
V
vec2ind |
将向量转换为指标 |
vgg16 |
预训练VGG-16卷积神经网络 |
vgg19 |
预训练VGG-19卷积神经网络 |
视图 |
视图autoencoder |
视图 |
查看神经网络 |
这个话题有帮助吗?