我可以运行“paralleldemo_backslash_bench。在多个gpu m”而不是cpu ?

3视图(30天)
我试图使用并行计算工具箱在R2019b基准的性能解决“\ b”同时使用多个gpu。我使用的“codistributor”对象矩阵“A”,确保适当划分在发送数据之前的GPU,这样得到的所有信息需要而平衡的分布数据。
我有两个标准:
  • paralleldemo_gpu_backslash.m——使用一个单一的GPU
  • paralleldemo_backslash_bench.m——使用多个CPU的工人
我想这两个脚本合并在一起,而不是运行在多个cpu,它运行在多个gpu。
是问题的来源,因为我试图使用“codistributor对象和使用”gpuArray”或者,不应该对结果有影响吗?

接受的答案

MathWorks支金宝app持团队”class=
基于自定义工作流描述,目前没有内置的支持分布式GP金宝appU数组(//www.tatmou.com/matlabcentral/answers/468901-nvlinked-rtx8000-and-large-matrix-inversion)。
R2020b, MATLAB的GPU并行计算工具箱不支持分布式阵列作为一个变量。金宝app然而,您可以手动将你的数据划分为多个单独的平行池工人“gpuArray”变量。以下链接描述这个工作流程://www.tatmou.com/help/parallel-computing/run-matlab-functions-on-multiple-gpus.html
手动一个潜在的解决方法是将你的数据和运行独立计算每个GPU(使用并行池或“parfor”循环)(//www.tatmou.com/matlabcentral/answers/213456-is-it-possible-to-locally-distribute-an-array-for-gpu-processing)。

更多的答案(0)

类别

找到更多的在并行计算原理帮助中心文件交换

下载188bet金宝搏


释放

R2019b

社区寻宝

找到宝藏在MATLAB中央,发现社区如何帮助你!

开始狩猎!