深度学习工具箱

设计、训练和分析深度学习网络

深度学习工具箱™提供了一个框架,用于设计和实现具有算法、预训练模型和应用程序的深度神经网络。您可以使用卷积神经网络(ConvNets, CNNs)和长短期记忆(LSTM)网络对图像、时间序列和文本数据进行分类和回归。您可以使用自动区分、自定义训练循环和共享权来构建网络架构,如生成式对抗网络(gan)和暹罗网络。有了Deep Network Designer应用程序,你可以图形化地设计、分析和训练网络。实验管理器应用程序可以帮助您管理多个深度学习实验,跟踪训练参数,分析结果,并比较不同实验的代码。您可以可视化层激活和图形监控训练进展。

您可以通过ONNX格式与TensorFlow™和PyTorch交换模型,并从TensorFlow- keras和Caffe导入模型。这个工具箱支持使用Dar金宝appkNet-53、ResNet-50、NASNet、SqueezeNet和许多其他预训练模型进行迁移学习。

您可以在单个或多个GPU工作站上加速培训(使用并行计算工具箱)™), 或者扩展到集群和云,包括NVIDIA® GPU云和亚马逊EC2® GPU实例(带MATLAB并行服务器)™).

开始:

网络和体系结构

针对图像、时间序列、数字和文本数据的分类、回归和特征学习,培训深度学习网络。

卷积神经网络

学习图像中的模式,识别对象、人脸和场景。构造和训练卷积神经网络(CNN)来执行特征提取和图像识别。

长短期记忆网络

了解序列数据中的长期相关性,包括信号、音频、文本和其他时间序列数据。构建和训练长-短期记忆(LSTM)网络以进行分类和回归。

与LSTM合作。

网络体系结构

使用各种网络结构,包括有向无环图(DAG)和循环架构,构建深度学习网络。使用自定义训练循环、共享权重和自动区分,构建高级网络架构,如生成性对抗网络(GAN)和暹罗网络。

使用不同的网络架构。

网络设计与分析

使用交互式应用程序构建、可视化、实验和分析深度学习网络。

设计深度学习网络

使用deep network Designer应用程序从头开始创建和培训deep network。导入预训练模型,可视化网络结构,编辑图层,调整参数,并进行训练。

分析深度学习网络

在培训之前,分析您的网络架构,以检测和调试错误、警告和层兼容性问题。可视化网络拓扑,查看可学习参数、激活方式等详细信息。

分析了一个深度学习网络体系结构。

管理深度学习实验

使用实验管理器app管理多个深度学习实验。跟踪训练参数,分析结果,比较不同实验的代码。使用可视化工具,如训练图和混淆矩阵,排序和过滤实验结果,并定义自定义度量来评估训练模型。

迁移学习与预训练模型

将预先训练好的模型导入MATLAB进行推理。

迁移学习

访问预先训练的网络,并将其作为学习新任务的起点。执行迁移学习,将网络中学习到的功能用于特定任务。

预训练模型

使用一行代码访问最新研究中的预训练网络。导入预训练模型,包括DarkNet-53、ResNet-50、SqueezeNet、NASNet和Inception-v3。

预训练模型的分析。

可视化与调试

在深度学习网络中可视化培训进度和学习功能的激活。

培训进度

使用各种指标图查看每个迭代中的培训进度。根据培训指标绘制验证指标,以查看网络是否过度拟合。

监控模型的培训进度。

网络激活和可视化

提取对应于层的激活,可视化学习的特征,并使用激活训练机器学习分类器。使用Grad CAM、occlusion和LIME解释深度学习网络的分类决策。

可视化激活。

框架的互操作性

与来自MATLAB的深度学习框架进行互操作。

ONNX转换器

在MATLAB中导入和导出ONNX模型®用于与其他深度学习框架的互操作性。ONNX使模型能够在一个框架中进行训练,并转移到另一个框架进行推理。使用GPU编码器™生成优化的NVIDIA®CUDA®代码和使用MATLAB编码器™为导入的模型生成c++代码。

与深度学习框架互操作。

TensorFlow Keras导入器

将TensorFlow Keras的模型导入MATLAB进行推理和迁移学习。使用GPU编码器生成优化的CUDA代码并使用MATLAB编码器为导入的模型生成c++代码。

咖啡进口国

将Caffe Model Zoo中的模型导入MATLAB进行推理和迁移学习。

从Caffe Model Zoo导入模型到MATLAB。

培训加速度

使用GPU、云和分布式计算加快深度学习培训。

GPU加速度

使用高性能NVIDIA gpu加速深度学习训练和推理。在单工作站GPU上进行培训,或者在数据中心或云上使用DGX系统扩展到多个GPU。你可以用MATLAB并行计算工具箱大多数支持CUDA的NVIDIA GPU计算能力3.0或更高版本

用GPU加速。

云加速

使用云实例减少深度学习培训时间。使用高性能GPU实例可获得最佳效果。

使用并行计算工具箱和MATLAB并行服务器加速云中的训练。

分布式计算

使用MATLAB并行服务器在网络上的多个服务器上跨多个处理器运行深度学习培训。

在云中并行扩展深度学习。

模拟、代码生成和部署

模拟和部署经过训练的网络到嵌入式系统或集成到生产环境中。

模拟

在Simulink中模拟和生成深度学习网络的代码金宝app®。使用AlexNet、GoogLeNet和其他预训练模型。您还可以模拟从头创建或通过转移学习创建的网络,包括LSTM网络。使用GPU编码器和NVIDIA GPU在Simulink中加速深度学习网络的执行。模拟具有控制、信号处理和传感器融合组件的深度学习网络nts评估深度学习模型对系统级性能的影响。金宝app

Simulink中的深度卷积神经网络金宝app®车道和车辆检测模型

代码生成

使用GPU编码器要生成优化的CUDA代码,MATLAB编码器金宝appSimulink编码器生成C和C++代码,将深度学习网络部署到Nvidia GPU,英特尔®至强®手臂®皮层®——一个处理器。将生成的代码自动交叉编译和部署到NVIDIA Jetson™和DRIVE™平台,以及Raspberry Pi™板上。使用深度学习HDL工具箱™ 在FPGA和SOC上原型化和实施深度学习网络

深度学习量化

量化您的深度学习网络,以减少内存使用并提高推理性能。使用Deep Network Quantizer应用程序分析并可视化提高性能和推理准确性之间的权衡。

部署独立应用程序

使用MATLAB编译器™MATLAB编译器SDK™将经过训练的网络部署为C++共享库,微软® 。网络组件,Java® 类和Python® 包含深入学习模型的MATLAB程序包。

共享独立的MATLAB程序与MATLAB编译器。

浅神经网络

使用具有各种监督和非监督的浅层神经网络结构的神经网络。

监督网络

训练有监督的浅层神经网络对动态系统进行建模和控制,对噪声数据进行分类,并预测未来事件。

浅层神经网络。

无监督网络

通过让浅层网络不断调整自身以适应新的输入,查找数据中的关系并自动定义分类方案。使用自组织、无监督网络以及竞争层和自组织地图。

自组织映射。

堆叠式自动编码器

通过使用自动编码器从数据集中提取低维特征,执行无监督特征转换。您还可以通过训练和堆叠多个编码器,使用堆叠自动编码器进行监督学习。

堆叠编码器。

最新功能

图像分类和网络预测模块

在Simulink中模拟和生成深度学习模型的代码金宝app

实验管理器应用程序

并行训练多个深度学习网络并使用贝叶斯优化调整超参数

深网设计师App

训练网络用于图像分类、语义分割、多输入、内存不足、图像到图像回归等工作流程。

多层感知器网络

在表格中具有数字特征输入和特征输入与图像输入相结合的列车网络。

自定义训练循环

自动创建和预处理小批量数据。

发行说明有关这些功能和相应功能的详细信息。

用于深度学习的MATLAB

只需几行MATLAB代码,您就可以将深度学习技术应用到您的工作中,无论是设计算法、准备和标记数据,还是生成代码并部署到嵌入式系统。