基于Nvidia GPU计算SDK的示例,我为nbody模拟创建了两个内核。没有利用共享内存的第一个内核比使用共享内存的第二个内核快大约15%。为什么共享内存的内核比较慢?
内核参数: 8192个主体,每个块的线程= 128,每个网格的块= 64。器件: GeForce GTX560Ti。
第一个内核:
#define N 8192
#define EPS2 0.001f
__device__ float4 vel[N];
__device__ float3 force(float4 bi, float4 bj, float3 ai)
{
float3 r;
r.x = bj.x - bi.x;
r.y = bj.y - bi.y;
r.z = bj.z - bi.z;
float distSqr = r.x * r.x + r.y * r.y + r.z * r.z + EPS2;
float distSixth = distSqr * distSqr * distSqr;
float invDistCube = 1.0f/sqrtf(distSixth);
float s = bj.w * invDistCube;
ai.x += r.x * s;
ai.y += r.y * s;
ai.z += r.z * s;
return ai;
}
__global__ void points(float4 *pos, float dt)
{
int k = blockIdx.x * blockDim.x + threadIdx.x;
if(k >= N) return;
float4 bi, bj, v;
float3 ai;
v = vel[k];
bi = pos[k];
ai = make_float3(0,0,0);
for(int i = 0; i < N; i++)
{
bj = pos[i];
ai = force(bi, bj, ai);
}
v.x += ai.x * dt;
v.y += ai.y * dt;
v.z += ai.z * dt;
bi.x += v.x * dt;
bi.y += v.y * dt;
bi.z += v.z * dt;
pos[k]=bi;
vel[k]=v;
}第二个内核:
#define N 8192
#define EPS2 0.001f
#define THREADS_PER_BLOCK 128
__device__ float4 vel[N];
__shared__ float4 shPosition[THREADS_PER_BLOCK];
__device__ float3 force(float4 bi, float4 bj, float3 ai)
{
float3 r;
r.x = bj.x - bi.x;
r.y = bj.y - bi.y;
r.z = bj.z - bi.z;
float distSqr = r.x * r.x + r.y * r.y + r.z * r.z + EPS2;
float distSixth = distSqr * distSqr * distSqr;
float invDistCube = 1.0f/sqrtf(distSixth);
float s = bj.w * invDistCube;
ai.x += r.x * s;
ai.y += r.y * s;
ai.z += r.z * s;
return ai;
}
__device__ float3 accumulate_tile(float4 myPosition, float3 accel)
{
int i;
for (i = 0; i < THREADS_PER_BLOCK; i++)
{
accel = force(myPosition, shPosition[i], accel);
}
return accel;
}
__global__ void points(float4 *pos, float dt)
{
int k = blockIdx.x * blockDim.x + threadIdx.x;
if(k >= N) return;
float4 bi, v;
float3 ai;
v = vel[k];
bi = pos[k];
ai = make_float3(0.0f, 0.0f, 0.0f);
int i,tile;
for(tile=0; tile < N / THREADS_PER_BLOCK; tile++)
{
i = tile * blockDim.x + threadIdx.x;
shPosition[threadIdx.x] = pos[i];
__syncthreads();
ai = accumulate_tile(bi, ai);
__syncthreads();
}
v.x += ai.x * dt;
v.y += ai.y * dt;
v.z += ai.z * dt;
bi.x += v.x * dt;
bi.y += v.y * dt;
bi.z += v.z * dt;
pos[k]=bi;
vel[k]=v;
}发布于 2011-09-01 01:19:43
实际上,非共享版本的内核确实以L1缓存的形式使用共享内存。从代码中我们可以看到,线程访问了全局内存的相同区域,因此它们被缓存和重用。当我们增加更好的占用率和缺少额外的指令(同步等)时,我们会得到更快的内核。
发布于 2011-08-31 03:56:40
唯一真正有用的答案是通过仔细的分析获得的,这是您唯一有能力做的事情。NVIDIA为Linux和Windows提供了有用的分析工具,现在可能是使用它们的时候了。
话虽如此,共享内存版本的寄存器消耗要比非共享内存版本大得多(在使用CUDA4.0发布编译器编译到sm_20目标时,分别为37和29 )。这可能是一个简单的占用率差异,导致您所看到的性能变化。
https://stackoverflow.com/questions/7248533
复制相似问题