深度学习工具箱

设计、训练和分析深度学习网络

Deep Learning Toolbox™提供了一个框架,用于设计和实现具有算法、预训练模型和应用程序的深度神经网络。您可以使用卷积神经网络(ConvNets, cnn)和长短时记忆网络(LSTM)对图像、时间序列和文本数据进行分类和回归。您可以使用自动区分、自定义训练循环和共享权重来构建生成对抗网络(GANs)和暹罗网络等网络架构。通过Deep Network Designer应用程序,您可以图形化地设计、分析和训练网络。实验管理程序帮助您管理多个深度学习实验,跟踪训练参数,分析结果,并比较来自不同实验的代码。您可以可视化层激活和图形化监控训练进展。

你可以通过ONNX格式与TensorFlow™和PyTorch交换模型,并从TensorFlow- keras和Caffe导入模型。工具箱支持使用DarkN金宝appet-53、ResNet-50、NASNet、SqueezeNet和许多其他预训练模型进行迁移学习。

您可以在单个或多个gpu工作站(使用并行计算工具箱™)上加速培训,或扩展到集群和云,包括NVIDIA® GPU云和亚马逊EC2® GPU实例(与MATLAB并行服务器™)。

开始:

网络和架构

训练深度学习网络,用于图像、时间序列、数字和文本数据的分类、回归和特征学习。

卷积神经网络

学习图像模式来识别物体、面孔和场景。构造和训练卷积神经网络(CNNs)进行特征提取和图像识别。

长短时记忆网络

在序列数据中学习长期依赖关系,包括信号,音频,文本和其他时间序列数据。构建和培训长期内存(LSTM)网络以执行分类和回归。

与LSTMs合作。

网络架构

使用各种网络结构,包括有向无环图(DAG)和循环架构来构建你的深度学习网络。使用自定义训练循环、共享权值和自动区分,构建生成对抗网络(GANs)和暹罗网络等高级网络架构。

使用不同的网络架构。

网络设计与分析

使用互动应用构建,可视化,实验和分析深度学习网络。

设计深层学习网络

使用Deep Network Designer应用程序从头开始创建和培训深度网络。导入备用模型,可视化网络结构,编辑图层,调谐参数和火车。

深度学习网络分析

分析您的网络架构,以检测和调试错误、警告和层兼容性问题之前的培训。可视化网络拓扑,并查看详细信息,如可学习的参数和激活。

深入学习网络架构分析。

管理深度学习实验

使用experimental Manager app管理多个深度学习实验。跟踪训练参数,分析结果,比较不同实验的代码。使用可视化工具,如训练图和混淆矩阵,排序和过滤实验结果,并定义自定义度量来评估训练模型。

迁移学习和预训练模型

将预用模型导入MATLAB以推动。

转移学习

访问预先训练过的网络,并把它们作为学习新任务的起点。进行迁移学习,利用学习到的网络特征完成特定的任务。

佩带的模型

使用一行代码访问最新研究中预先训练好的网络。导入预先训练的模型,包括DarkNet-53、ResNet-50、SqueezeNet、NASNet和Inception-v3。

预磨料模型分析。

可视化和调试

可视化深入学习网络中学习功能的培训进度和激活。

培训进展

用各种度量的图来查看每次迭代中的培训进度。根据训练指标绘制验证指标,以查看网络是否过拟合。

监视您的模型的训练进度。

网络激活和可视化

提取一个层对应的激活,可视化学习的特征,并使用激活训练机器学习分类器。使用Grad-CAM、occlusion和LIME来解释深度学习网络的分类决策。

可视化激活。

框架的互操作性

与MATLAB的深度学习框架互操作。

ONNX转换器

MATLAB中的导入和导出ONNX模型®用于与其他深度学习框架的互操作性。ONNX允许在一个框架中对模型进行训练,并将其转移到另一个框架中进行推理。使用GPU编码器™生成优化的NVIDIA®CUDA®代码和使用MATLAB编码器™为导入的模型生成c++代码。

与深层学习框架互操作。

咖啡进口国

从Caffe模型动物园导入Matlab的导入推断和转移学习。

从Caffe模型动物园导入模型到MATLAB。

培训加速度

使用GPU,云和分布式计算加快深度学习培训。

GPU加速

使用高性能NVIDIA gpu加速深度学习训练和推理。使用数据中心或云上的DGX系统在单个工作站GPU上进行培训,或将其扩展到多个GPU。你可以用MATLAB并行计算工具箱以及大多数支持cuda的NVIDIA图形处理器计算能力3.0及以上

与GPU加速。

云加速

使用云实例减少深度学习训练时间。使用高性能GPU实例获得最佳效果。

使用并行计算工具箱和MATLAB并行服务器加速云训练。

分布式计算

使用MATLAB并行服务器在网络上的多个服务器上的多个处理器上运行深度学习训练。

在并行和云中扩展深度学习。

仿真,代码生成和部署

模拟和部署训练有素的网络到嵌入式系统或将其集成到生产环境中。

模拟

在Simulink中模拟并生成深度学习网络的代码金宝app®.使用AlexNet, googleet和其他预先训练的模型。您还可以模拟从头创建或通过传输学习创建的网络,包括LSTM网络。使用GPU Coder和NVIDIA GPU加速在Simulink中执行深度学习网络。金宝app利用控制、信号处理和传感器融合组件模拟深度学习网络,以评估深度学习模型对系统级性能的影响。

Simulink内部深度卷积神经网络金宝app®车道和车辆检测模型

代码生成

使用GPU编码器生成优化的CUDA代码,Matlab编码器金宝app仿真软件编码器生成C和C ++代码将深度学习网络部署到NVIDIA GPU,英特尔®至强®和手臂®皮质®——一个处理器。在NVIDIA Jetson™和DRIVE™平台以及Raspberry Pi™板上自动交叉编译和部署生成的代码。使用深度学习HDL工具箱™原型和实施FPGA和SOC的深度学习网络

深度学习量化

量化您的深度学习网络以降低内存使用率并提高推理性能。使用Deep Network Standizer应用程序分析和可视化性能和推理准确性之间的折衷。

部署独立应用程序

使用MATLAB编译器™MATLAB编译器SDK™将训练有素的网络部署为c++共享库,微软® 。网络组件,Java® classes, and Python® 软件包来自MATLAB程序与深度学习模型。

与MATLAB编译器共享独立的MATLAB程序。

浅神经网络

使用具有各种监督和无监督浅层神经网络结构的神经网络。

监督网络

训练有监督的浅神经网络建模和控制动态系统,分类噪声数据,并预测未来事件。

浅神经网络。

无监督网络

通过让浅层网络不断调整自身以适应新的输入,找到数据内部的关系并自动定义分类方案。使用自组织、无监督的网络以及竞争层和自组织地图。

自组织地图。

堆叠Autoencoders

通过使用AutoEncoders从数据集中提取低维功能来执行无监督的功能转换。您还可以通过培训和堆叠多个编码器使用堆叠的AutoEncoders进行监督学习。

堆叠编码器。

最新的特性

图像分类和网络预测块

在Simulink中模拟并生成深度学习模型的代码金宝app

实验经理应用程序

并行训练多个深度学习网络,使用贝叶斯优化优化超参数

深层网络设计师App

训练网络用于图像分类、语义分割、多输入、内存不足、图像到图像回归和其他工作流。

多层感知器网络

列车网络与数字特征输入表和特征输入结合图像输入。

自定义训练循环

自动创建和预处理小批数据。

看到发布说明有关这些功能的详细信息和相应的功能。

Matlab深入学习

只需几行MATLAB代码,您就可以将深度学习技术应用到您的工作中,无论您是设计算法、准备和标记数据,还是生成代码并部署到嵌入式系统。