主要内容

设置必备产品下载188bet金宝搏

使用CUDA GPU编码器™®代码生成,安装在指定的产品下载188bet金宝搏安装必备产品下载188bet金宝搏

墨西哥人设置

当生成CUDA GPU编码器墨西哥人,代码生成器使用NVIDIA®包含在MATLAB编译器和库®。取决于您的开发计算机上的操作系统,你只需要设置墨西哥人代码生成器。

请注意

GPU编码器不支持独立部署生成的CUD金宝appA MEX-file使用MATLAB运行时

窗户系统

如果你有多个版本的微软®Visual Studio®C / c++语言的编译器上安装窗户®系统,MATLAB编译器选择一个作为默认。如果选择的编译器不兼容的版本支持GPU编码器,改变选择。金宝app为支持金宝app微软Visual Studio版本,请参阅安装必备产品下载188bet金宝搏

改变默认的编译器,使用墨西哥人设置c++命令。当你打电话墨西哥人设置c++MATLAB显示一条消息,设置不同的编译器的链接。选择一个链接,更改默认编译器构建墨西哥人文件。你选择的编译器仍然是默认的,直到你的电话墨西哥人设置c++选择一个不同的默认。有关更多信息,请参见改变默认的编译器。的墨西哥人设置c++命令只改变C + +语言编译器。你也必须改变默认为C编译器使用墨西哥人设置C

Linux平台

MATLAB和CUDA工具包的GCC / g++编译器只金宝app支持C / c++语言在Linux上®平台。支持GC金宝appC / G + +版本,请参阅安装必备产品下载188bet金宝搏

环境变量

独立的代码(静态库,动态链接库,或可执行程序)生成额外的设置要求。GPU编码器使用环境变量来确定必要的工具、编译器和库所需的代码生成。

请注意

在Windows上,空格或特殊字符的路径工具,编译器和库在构建过程中可以创建问题。在位置必须安装第三方软件,不包含空格或更改Windows设置启用创建短名称文件,文件夹,和路径。有关更多信息,请参见使用Windows短名称解决方案MATLAB的答案

平台 变量名 描述
窗户 CUDA_PATH

路径CUDA工具包安装。

例如:

C:\Program Files\NVIDIA GPU计算工具包\ CUDA \ v11.8 \

NVIDIA_CUDNN

路径的根文件夹cuDNN安装。根文件夹包含本,包括和lib文件夹。

例如:

C:\Program Files\NVIDIA GPU计算工具包\ CUDA \ v11.8 \

NVIDIA_TENSORRT

路径的根文件夹TensorRT安装。根文件夹包含本、数据包括,和lib文件夹。

例如:

C:\Program Files\NVIDIA GPU计算工具包\ CUDA \ v11.8 \ TensorRT \

OPENCV_DIR

路径建立文件夹OpenCV的主机。这个变量构建和运行需要深度学习的例子。

例如:

C:\Program Files\opencv\build

路径

CUDA可执行文件路径。一般来说,CUDA工具包安装程序自动设置这个值。

例如:

C:\Program Files\NVIDIA GPU计算工具包\ CUDA \ v11.8 \ bin

路径cudnn.dll动态库。这个库的名称可能是不同的在你的安装。

例如:

C:\Program Files\NVIDIA GPU计算工具包\ CUDA \ v11.8 \ bin

路径nvinfer *TensorRT动态库。这个库的名称可能是不同的在你的安装。

例如:

C:\Program Files\NVIDIA GPU计算工具包\ CUDA \ v11.8 \ TensorRT \ lib

路径nsys可执行的NVIDIA Nsight™系统。

例如:

2022.5.1 \ target-windows-x64 C:\Program Files\NVIDIA公司\ Nsight系统

路径动态链接库(DLL) OpenCV。此变量运行所需深度学习的例子。

例如:

C:\Program Files\opencv\build\x64\vc15\bin

Linux 路径

路径CUDA工具包可执行。

例如:

/usr/local/cuda - 11.8 - / -垃圾箱

路径nsys英伟达Nsight系统的可执行文件。

例如:

2022.5.1 / target-linux-x64 /usr/local/Nsight系统

路径OpenCV库。这个变量构建和运行需要深度学习的例子。

例如:

/usr/local/lib/

OpenCV头文件路径。这个变量需要建立深度学习的例子。

例如:

/usr/local/include/opencv

LD_LIBRARY_PATH

路径CUDA库文件夹。

例如:

/usr/local/cuda - 11.8 - / lib64

路径cuDNN库文件夹。

例如:

/usr/local/cuda - 11.8 - / - lib64/

路径TensorRT™库文件夹。

例如:

/usr/local/cuda - 11.8 - / - tensorrt/lib/

路径的手臂®在目标硬件计算库文件夹。

例如:

/usr/local/arm_compute / lib /

LD_LIBRARY_PATH手臂上的目标硬件。

NVIDIA_CUDNN

安装路径的根文件夹cuDNN图书馆。

例如:

/usr/local/cuda - 11.8 /

NVIDIA_TENSORRT

安装路径的根文件夹TensorRT图书馆。

例如:

/usr/local/cuda - 11.8 - / - tensorrt/

ARM_COMPUTELIB

路径的根文件夹臂计算库安装在手臂的目标硬件。在ARM目标硬件设置这个值。

例如:

/usr/local/arm_compute

验证设置

来验证您的开发计算机所需的所有工具和配置GPU代码生成、使用coder.checkGpuInstall函数。这个函数执行检查来验证如果您的环境所需的所有的第三方工具和库GPU代码生成。你必须通过一个coder.gpuEnvConfig对象的功能。这个函数验证基于GPU的代码生成环境属性中指定的配置对象。

您还可以使用等价的基于gui的应用程序,执行相同的检查,可以使用命令启动,检查显卡安装

在MATLAB命令窗口中,输入:

gpuEnvObj = coder.gpuEnvConfig;gpuEnvObj。BasicCodegen = 1;gpuEnvObj。BasicCodeexec = 1;gpuEnvObj。DeepLibTarget =“tensorrt”;gpuEnvObj。DeepCodeexec = 1;gpuEnvObj。DeepCodegen = 1;结果= coder.checkGpuInstall (gpuEnvObj)

这是代表所示的输出。您的结果可能有所不同。

兼容的GPU:通过CUDA环境:通过运行时:通过cuFFT:通过cuSOLVER:通过cuBLAS:通过cuDNN环境:通过TensorRT环境:通过基本的代码生成:通过基本代码执行:通过深度学习(TensorRT)代码生成:通过深度学习(TensorRT)代码执行:结果=结构通过字段:GPU: 1 CUDA: 1 cuDNN: 1 TensorRT: 1 basiccodegen: 1 basiccodeexec: 1 deepcodegen: 1 deepcodeexec: 1 tensorrtdatatype: 1分析:0

另请参阅

应用程序

功能

对象

相关的话题