代码之家  ›  专栏  ›  技术社区  ›  Humam Helfawi

GPU加速期望

  •  0
  • Humam Helfawi  · 技术社区  · 6 年前

    我有一个在3D阵列上进行计算的代码。代码经过优化,可以在GPU上工作。3D数组基本上是一组2D数组。每一个都存储在3D数组的一个页面中。

    为了简单起见,让我们考虑一下整个代码是:

    A = rand(512,512,100,'gpuArray');
    B = fftshift(fftshift(fft2(fftshift(fftshift(A,1),2)),1),2); 
    

    其中512×512是每个2D数组的维数,100是这些2D数组的数目。

    在nVidia GTX 1060上 x millisecond

    我试图将二维数组大小更改为 256*256 128*128 0.9*x milliseconds .

    这种行为是预期的,因为AFAIK,较小的阵列将不会充分利用GPU,许多核心将处于空闲状态。所以,没有真正的收获。

    我的问题是:

    我想时钟的速度可能会有所不同。但是,我不确定这种增强有多大意义。

    更好的GPU的一个好处是更大的内存,它可以让我在1024*1024上完成这个过程(这在1060 GPU上是做不到的)。不过,这不是我主要关心的问题。

    0 回复  |  直到 6 年前