深度学习Toolbox
设计,列车和分析深度学习网络
深度学习工具箱™提供了一种设计和实现具有算法,预制模型和应用的深神经网络的框架。您可以使用卷积神经网络(Councnet,CNN)和长短期内存(LSTM)网络在图像,时序和文本数据上执行分类和回归。您可以使用自动分化,自定义训练循环和共享权重构建生成的对冲网络(GANS)和暹罗网络等网络架构。使用深度网络设计器应用程序,您可以以图形方式设计,分析和培训网络。实验管理器应用程序可帮助您管理多个深度学习实验,跟踪培训参数,分析结果和与不同实验的代码进行比较。您可以可视化图层激活和图形监控培训进度。
您可以通过Tennx格式和Pytorch与Tensorflow-Keras和Caffe的导入模型进行交换模型。Toolbox支持使用D金宝apparknet-53,Reset-50,NASnet,Screezenet和许多其他预磨损模型进行转移学习。
您可以在单个或多个GPU工作站(具有并行计算工具箱™)上加快培训,或者扩展到集群和云,包括NVIDIA® GPU Cloud and Amazon EC2® GPU instances (with MATLAB Parallel Server™).
开始:
卷积神经网络
学习图像中的模式以识别对象,面部和场景。构建和列车卷积神经网络(CNNS)来执行特征提取和图像识别。
长期短期内存网络
Learn long-term dependencies in sequence data including signal, audio, text, and other time-series data. Construct and train long short-term memory (LSTM) networks to perform classification and regression.
Network Architectures
使用各种网络结构,包括指导的非循环图(DAG)和经常性架构来构建您的深度学习网络。使用自定义培训循环,共享权重和自动差异构建高级网络架构等生成对冲网络(GANS)和暹罗网络。
Design Deep Learning Networks
Create and train a deep network from scratch using the Deep Network Designer app. Import a pretrained model, visualize the network structure, edit layers, tune parameters, and train.
分析深度学习网络
分析您的网络架构以在培训前检测和调试错误,警告和层兼容性问题。可视化网络拓扑和查看详细信息,例如学习参数和激活。
Manage Deep Learning Experiments
使用实验经理应用管理多个深度学习实验。跟踪培训参数,分析结果和与不同实验的代码进行比较。使用可视化工具,如培训图和混淆矩阵,排序和过滤实验结果,并定义定制度量标准以评估训练有素的型号。
转移学习
访问佩带的网络并使用它们作为学习新任务的起点。执行转移学习以在网络中使用网络中的学习功能进行特定任务。
Pretrained Models
使用单行代码访问最新研究的预押网络。导入普试模型,包括Darknet-53,Reset-50,Screezenet,NASNet和Incepion-V3。
培训进步
查看每个迭代的培训进展,各种度量。绘制验证指标针对培训指标,看网络是否已被过度装备。
Network Activations and Visualizations
提取对应于图层的激活,可视化学习功能,并使用激活培训机器学习分类器。使用Grad-Cam,闭塞和石灰来解释深度学习网络的分类决策。
ONNX转换器
Import and export ONNX models within MATLAB®对于与其他深度学习框架的互操作性。ONNX使模型能够在一个框架中培训并转移到另一个框架,以便推断。采用GPU Coder™生成优化的nvidia®CUDA.®代码和使用Matlab Coder™为导入模型生成C ++代码。
TensorFlow-Keras Importer
Import models from TensorFlow-Keras into MATLAB for inference and transfer learning. UseGPU Coder生成优化的CUDA代码和使用MATLAB Coder为导入模型生成C ++代码。
Caffe进口商
Import models from Caffe Model Zoo into MATLAB for inference and transfer learning.
GPU Acceleration
高性能NVIDIA GPU加快深度学习培训和推论。对单个工作站GPU的培训或使用DGX系统或数据中心或云中的DGX系统进行培训。你可以使用matlab并行计算工具箱和最具资金会的NVIDIA GPU计算能力3.0或更高。
Cloud Acceleration
用云实例减少深度学习培训时间。使用高性能GPU实例获得最佳效果。
Distributed Computing
使用MATLAB并行服务器在网络上的多个服务器上跨多个处理器进行深度学习培训。
模拟
模拟和生成Simulink中深度学习网络的代码金宝app®。使用alexnet,googlenet和其他佩带的模型。您还可以模拟从划痕或通过传输学习创建的网络,包括LSTM网络。使用GPU编码器和NVIDIA GPU加快Simulink中的深度学习网络的执行。金宝app使用控制,信号处理和传感器融合组件模拟深度学习网络,以评估深度学习模型对系统级性能的影响。
代码生成
采用GPU Coderto generate optimized CUDA code,MATLAB Coder和Simulink Coderto generate C and C++ code to deploy deep learning networks to NVIDIA GPUs, Intel®Xeon.®和手臂®皮质®-a处理器。将生成的代码的交叉编译和部署自动化到NVIDIA Jetson™和Drive™平台以及Raspberry PI™板上。采用深度学习HDL工具箱™原型和实施深度学习网络s on FPGAs and SoCs
深度学习Quantization
Quantize your deep learning network to reduce memory usage and increase inference performance. Analyze and visualize the tradeoff between increased performance and inference accuracy using the Deep Network Quantizer app.
部署独立应用程序
采用Matlab Compiler™和MATLAB编译器SDK™将培训的网络部署为C ++共享库,Microsoft® .NET assemblies, Java® classes, and Python® packages from MATLAB programs with deep learning models.
监督网络
Train supervised shallow neural networks to model and control dynamic systems, classify noisy data, and predict future events.
无监督的网络
在数据中查找关系,并通过让浅网络不断调整为新输入来自动定义分类方案。使用自组织,无监督的网络以及竞争层和自组织地图。
堆积的autoencoders.
Perform unsupervised feature transformation by extracting low-dimensional features from your data set using autoencoders. You can also use stacked autoencoders for supervised learning by training and stacking multiple encoders.