文档

神经网络工具箱功能

按字母顺序列表 按类别
激活 计算卷积神经网络层激活
适应 使神经网络适应模拟数据
adaptwb 适应具有权重和偏差学习规则的网络
adddelay 增加神经网络响应的延迟
alexnet 预训练的AlexNet卷积神经网络
Autoencoder Autoencoder类
AveragePooling2DLayer 平均池化层对象
averagePooling2dLayer 平均池化层对象
boxdist 两个位置向量之间的距离
cascadeforwardnet 级联前向神经网络
catelements 连接神经网络数据元素
catsamples 连接神经网络数据样本
catsignals 连接神经网络数据信号
cattimesteps 连接神经网络数据时间步
classificationLayer 创建一个分类输出层
ClassificationOutputLayer 分类输出层
分类 使用训练过的卷积神经网络对数据进行分类
closeloop 将神经网络开环反馈转化为闭环反馈
combvec 创建所有向量的组合
专业 竞争传递函数
competlayer 竞争层
con2seq 将并发向量转换为顺序向量
配置 配置网络输入和输出,使输入和目标数据最佳匹配
混乱 分类混淆矩阵
Convolution2DLayer 卷积的层
convolution2dLayer 卷积的层
convwf 卷积权函数
CrossChannelNormalizationLayer 通道方面的本地响应规范化层
crossChannelNormalizationLayer 通道方面的本地响应规范化层
crossentropy 神经网络性能
解码 解码编码数据
deepDreamImage 用深度梦来可视化网络特征
disp 神经网络特性
显示 神经网络变量的名称和性质
经销 欧氏距离权函数
distdelaynet 分布式延时网络
divideblock 使用索引块将目标划分为三组
divideind 使用指定的指标将目标分为三组
divideint 使用交叉指标将目标分为三组
dividerand 使用随机指标将目标分为三组
dividetrain 将所有目标分配到训练集
dotprod 点乘权函数
DropoutLayer 辍学层
dropoutLayer 辍学层
elliot2sig Elliot 2对称sigmoid传递函数
elliotsig Elliot对称sigmoid传递函数
elmannet 埃尔曼神经网络
编码 编码输入数据
errsurf 单输入神经元的误差曲面
extendts 将时间序列数据扩展到给定的时间步数
feedforwardnet 前馈神经网络
fitnet 函数拟合神经网络
fixunknowns 通过用未知值标记行来处理数据
formwb 将偏差和权重形成一个向量
fromnndata 将数据从标准神经网络单元阵列形式转换
FullyConnectedLayer 全连通层
fullyConnectedLayer 全连通层
盖德 广义加法
gdivide 推广部门
generateFunction 生成一个MATLAB函数来运行自动编码器
generate金宝appSimulink 为自动编码器生成一个S金宝appimulink模型
genFunction 生成仿真神经网络的MATLAB函数
gensim 生成Simulin金宝appk块用于神经网络仿真
getelements 获取神经网络数据元素
getsamples 获取神经网络数据样本
getsignals 获取神经网络数据信号
getsiminit 得到Si金宝appmulink神经网络块初始输入和层延迟状态
gettimesteps 获取神经网络数据时间步
getwb 得到单向量的网络权值和偏置值
gmultiply 广义的乘法
gnegate 广义的否定
gridtop 网格层拓扑函数
gsqrt 广义平方根
gsubtract 广义减法
hardlim 硬极限传递函数
hardlims 对称硬极限传递函数
hextop 六方层拓扑函数
ImageInputLayer 图像输入层
imageInputLayer 图像输入层
importCaffeLayers 从Caffe导入卷积神经网络层
importCaffeNetwork 从Caffe导入预先训练的卷积神经网络模型
ind2vec 将指标转换为向量
初始化 初始化神经网络
initcon 良心偏差初始化函数
initlay 逐层网络初始化功能
initlvq LVQ权值初始化函数
initnw Nguyen-Widrow层初始化函数
initwb 由权值和偏置层初始化函数
initzero 零权和偏差初始化函数
isconfigured 指示是否配置了网络输入和输出
网络层
layrecnet 层递归神经网络
learncon 良心偏差学习功能
learngd 梯度下降权值和偏差学习函数
learngdm 梯度下降与动量权和偏差学习功能
learnh 赫布权值学习规则
learnhd Hebb衰减权值学习规则
learnis Instar权重学习功能
learnk Kohonen权值学习函数
learnlv1 LVQ1权值学习函数
learnlv2 LVQ2.1权重学习函数
learnos Outstar权重学习功能
learnp 感知器权值和偏差学习函数
learnpn 归一化感知器权值和偏差学习函数
learnsom 自组织地图权重学习功能
learnsomb 批量自组织地图权重学习功能
learnwh Widrow-Hoff权重/偏差学习函数
linearlayer 线性层
linkdist 链接距离函数
logsig Log-sigmoid传递函数
lvqnet 学习矢量量化神经网络
lvqoutputs LVQ输出处理功能
平均绝对误差性能函数
mandist 曼哈顿距离权函数
mapminmax 通过将行最小值和最大值映射到[-1 1]来处理矩阵
mapstd 通过将每一行的均值映射为0,将偏差映射为1来处理矩阵
maxlinlr 线性层的最大学习率
MaxPooling2DLayer 最大池化层
maxPooling2dLayer 最大池化层
meanabs 矩阵或矩阵的绝对元素的平均值
meansqr 矩阵或矩阵的平方元素的平均值
中点 中点权值初始化函数
极大极小 矩阵行范围
均方误差 均方归一化误差性能函数
narnet 非线性自回归神经网络
narxnet 带有外部输入的非线性自回归神经网络
negdist 负距离权函数
netinv 逆传递函数
netprod 积净输入函数
netsum 净输入函数和
网络 将自动编码器对象转换为网络对象
网络 创建自定义神经网络
newgrnn 设计广义回归神经网络
newlind 设计线性层
newpnn 设计概率神经网络
newrb 径向基网络设计
newrbe 设计精确的径向基网络
nncell2mat 将神经网络细胞数据合并为矩阵
nncorr 神经网络时间序列之间的交叉相关
nndata 创建神经网络数据
nndata2sim 将神经网络数据转换为Simulink时间序列金宝app
nnsize 神经数据元素、样本、时间步和信号的数量
nnstart 神经网络开始GUI
nntraintool 神经网络训练工具
normc 矩阵列的归一化
normprod 归一化点积权函数
normr 矩阵的归一化行
numelements 神经网络数据中的元素数
numfinite 神经网络数据中有限值的个数
numnan 神经网络数据中NaN值的数目
numsamples 神经网络数据中的样本数量
numsignals 神经网络数据中的信号数量
numtimesteps 神经网络数据中的时间步数
openloop 将神经网络闭环反馈转化为开环反馈
patternnet 模式识别网络
感知器 感知器
执行 计算网络性能
plotconfusion 地块分类混淆矩阵
plotep 在误差面上画出权重偏差位置
ploterrcorr 绘制误差时间序列的自相关图
ploterrhist 绘制误差直方图
情节 绘制单输入神经元的误差曲面
plotfit 图函数拟合
plotinerrcorr 绘制输入误差时间序列相互关系图
plotpc 感知器向量图上的分类线
plotperform 图网络性能
plotpv 绘制感知器输入/目标向量图
plotregression Plot线性回归
plotresponse 绘制动态网络时间序列响应图
plotroc 情节接收器工作特性
plotsomhits 绘制自组织地图样本命中
plotsomnc 绘制自组织地图邻居连接
plotsomnd 绘制自组织地图邻居距离
plotsomplanes 绘制自组织地图权重平面
plotsompos 绘制自组织地图权重位置
plotsomtop 绘制自组织地图拓扑
plottrainstate 绘制训练状态值
plotv 把向量画成从原点开始的直线
plotvec 画出不同颜色的向量
plotwb 绘制权重和偏差值的辛顿图
plotWeights 绘制自动编码器的编码器的权重的可视化图
pnormc 对矩阵的列进行伪规范化
poslin 正线性传递函数
预测 使用训练过的卷积神经网络预测响应
预测 使用训练过的自动编码器重建输入
preparets 为网络模拟或训练准备输入和目标时间序列数据
processpca 用主成分分析处理矩阵列
修剪 删除大小为零的神经输入、层和输出
prunedata 对数据进行修剪,使其与修剪后的网络保持一致
purelin 线性传递函数
定量 将数值离散为数量的倍数
radbas 径向基传递函数
radbasn 归一化径向基传递函数
randnc 归一化列权重初始化函数
randnr 归一化行权初始化函数
兰德 对称随机权重/偏差初始化函数
randsmall 小随机权重/偏差初始化函数
randtop 随机层拓扑函数
回归 线性回归
regressionLayer 创建一个回归输出层
RegressionOutputLayer 回归输出层
ReLULayer 整流线性单元(ReLU)层
reluLayer 整流线性单元(ReLU)层
removeconstantrows 通过删除具有恒定值的行来处理矩阵
removedelay 去除神经网络响应的延迟
removerows 通过删除具有指定索引的行来处理矩阵
中华民国 接收机工作特性
sae 和绝对误差性能函数
satlin 饱和线性传递函数
satlins 对称饱和线性传递函数
scalprod 标量积权函数
selforgmap 自组织映射
separatewb 从权重/偏差向量中分离偏差和权重值
seq2con 将顺序向量转换为并发向量
SeriesNetwork 系列网络类
setelements 设置神经网络数据元素
setsamples 设置神经网络数据样本
setsignals 设置神经网络数据信号
setsiminit 设置Simulink神经网络块初始条件金宝app
settimesteps 设置神经网络数据时间步
setwb 用单个向量设置所有的网络权值和偏置值
sim卡 模拟神经网络
sim2nndata 将Simulin金宝appk时间序列转换为神经网络数据
softmax 软最大传递函数
SoftmaxLayer 用于卷积神经网络的Softmax层
softmaxLayer 用于卷积神经网络的Softmax层
srchbac 使用回溯的一维最小化
srchbre 使用布伦特方法进行一维间隔定位
srchcha Charalambous方法的一维极小化
srchgol 利用黄金分割搜索实现一维最小化
srchhyb 使用混合二分-三次搜索的一维极小化
上交所 和平方和误差性能函数
堆栈 将几个自动编码器中的编码器堆叠在一起
sumabs 矩阵或矩阵绝对元素的和
sumsqr 矩阵或矩阵元素的平方和
tansig 双曲切线sigmoid传递函数
tapdelay 位移神经网络时间序列数据的抽头延迟
timedelaynet 时滞神经网络
tonndata 将数据转换为标准的神经网络单元阵列形式
火车 训练神经网络
trainAutoencoder 训练自动编码器
trainb 具有权重和偏差学习规则的批量训练
trainbfg BFGS准牛顿反向传播
trainbr 贝叶斯正则化反向传播
trainbu 批量无监督权重/偏差训练
trainc 周期性订单权重/偏差训练
traincgb 共轭梯度反向传播与鲍威尔-比尔重启
traincgf 共轭梯度反向传播与Fletcher-Reeves更新
traincgp 共轭梯度反向传播与Polak-Ribiére更新
traingd 梯度下降反向传播
traingda 具有自适应学习率的梯度下降反向传播
traingdm 带有动量反向传播的梯度下降
traingdx 梯度下降与动量和自适应学习率反向传播
trainingOptions 训练神经网络的选项
TrainingOptionsSGDM 带动量的随机梯度下降训练选项
trainlm Levenberg-Marquardt反向传播
trainNetwork 训练卷积网络
trainoss 一步正割反向传播
trainr 具有学习功能的随机顺序增量训练
trainrp 有弹性的反向传播
trainru 无监督随机顺序权重/偏差训练
火车 具有学习功能的顺序增量训练
trainscg 缩放共轭梯度反向传播
trainSoftmaxLayer 训练一个用于分类的softmax层
tribas 三角基传递函数
tritop 三角层拓扑函数
应取消 取消配置网络输入和输出
vec2ind 将向量转换为指标
vgg16 预训练VGG-16卷积神经网络
vgg19 预训练VGG-19卷积神经网络
视图 视图autoencoder
视图 查看神经网络
这个话题有帮助吗?