OpenCL内存带宽/合并

如何解决OpenCL内存带宽/合并

摘要:

我正在尝试编写一个内存绑定的OpenCL程序,该程序接近GPU上公布的内存带宽。实际上,我差了50倍。

设置:

我只有一个相对较旧的Polaris卡(RX580),所以我不能使用CUDA,现在必须使用OpenCL。我知道这是次优的,我无法让任何调试/性能计数器正常工作,但这就是我的全部。

我是GPU计算的新手,想感受一下我可以期望的一些性能 从GPU到CPU。对我来说,要做的第一件事是内存带宽。

我写了一个很小的OpenCL内核,它以一种跨行的内存位置读取,我希望波前的所有工作人员一起在一个大的内存段上执行连续的内存访问,从而合并访问。内核随后对加载的数据所做的全部工作就是将这些值求和,然后将总和写回到另一端的内存位置。代码(我大部分时间都从各种来源无耻地复制了这些代码)很简单

__kernel void ThroughputTestKernel(
                     __global float* vInMemory,__global float* vOutMemory,const int iNrOfIterations,const int iNrOfWorkers
                   )
{
    const int gtid = get_global_id(0);
    
    __private float fAccumulator = 0.0;
    
    for (int k = 0; k < iNrOfIterations; k++) {
        fAccumulator += vInMemory[gtid + k * iNrOfWorkers];
    }
    
    vOutMemory[gtid] = fAccumulator;
}

我产生了iNrOfWorkers个这些内核,并测量了它们完成处理所花费的时间。对于我的测试,我设置了iNrOfWorkers = 1024iNrOfIterations = 64*1024。根据处理时间和iMemorySize = iNrOfWorkers * iNrOfIterations * sizeof(float),我计算出大约5GByte / s的内存带宽。

期望:

我的问题是,内存访问似乎比我认为自己可用的256GByte / s慢一两个数量级。

《 GCN ISA手册》 [1]假设我有36个CU,每个CU包含4个SIMD单元,每个SIMD单元的处理向量为16个元素。因此,我应该有36个 4 16 = 2304个处理元素可用。

我生成的数量少于该数量,即1024个全局工作单位(“线程”)。线程按顺序访问内存位置,相距1024个位置,因此在循环的每次迭代中,整个波前都将访问1024个连续的元素。因此,我相信GPU应该能够连续产生内存地址访问,并且两者之间不会中断。

我的猜测是,它生成的线程数很少,而不是1024,每个CU可能只有一个?这样,它将不得不一次又一次地重新读取数据。不过,我不知道该如何验证。

[1] http://developer.amd.com/wordpress/media/2013/12/AMD_GCN3_Instruction_Set_Architecture_rev1.1.pdf

解决方法

您的方法存在一些问题:

  • 您不会使GPU饱和。为了获得最佳性能,您需要启动比GPU具有执行单元更多的线程。更多意味着> 10000000。
  • 您的循环包含索引整数计算(用于结构数组合并访问)。在这里,这可能不足以使您进入计算限制,但是通常最好使用#pragma unroll展开小循环;然后编译器已经完成所有索引计算。您还可以通过C ++字符串连接或硬编码,使用iNrOfIterations / iNrOfWorkers将常量#define iNrOfIterations 16#define iNrOfWorkers 15728640烘烤到OpenCL代码中。

根据您的访问模式,有4种不同的内存带宽:合并/未对齐的读/写。合并比未对齐的速度快得多,并且未对齐的读取的性能损失小于未对齐的写入。只有合并的内存访问才能使您到达广告带宽附近的任何位置。您测量iNrOfIterations合并读取和1合并写入。要分别测量所有四种类型,可以使用以下方法:

#define def_N 15728640
#define def_M 16
kernel void benchmark_1(global float* data) {
    const uint n = get_global_id(0);
    #pragma unroll
    for(uint i=0; i<def_M; i++) data[i*def_N+n] = 0.0f; // M coalesced writes
}
kernel void benchmark_2(global float* data) {
    const uint n = get_global_id(0);
    float x = 0.0f;
    #pragma unroll
    for(uint i=0; i<def_M; i++) x += data[i*def_N+n]; // M coalesced reads
    data[n] = x; // 1 coalesced write (to prevent compiler optimization)
}
kernel void benchmark_3(global float* data) {
    const uint n = get_global_id(0);
    #pragma unroll
    for(uint i=0; i<def_M; i++) data[n*def_M+i] = 0.0f; // M misaligned writes
}
kernel void benchmark_4(global float* data) {
    const uint n = get_global_id(0);
    float x = 0.0f;
    #pragma unroll
    for(uint i=0; i<def_M; i++) x += data[n*def_M+i]; // M misaligned reads
    data[n] = x; // 1 coalesced write (to prevent compiler optimization)
}

此处data数组的大小为N*M,每个内核都在范围N中执行。对于带宽计算,每个内核执行几百次(更好的平均值),并获得平均执行时间time1time2time3time4。然后按以下方式计算带宽:

  • 强制读取带宽(GB / s)= 4.0E-9f*M*N/(time2-time1/M)
  • 强制写入带宽(GB / s)= 4.0E-9f*M*N/( time1 )
  • 未对齐的读取带宽(GB / s)= 4.0E-9f*M*N/(time4-time1/M)
  • 未对齐的写带宽(GB / s)= 4.0E-9f*M*N/(time3 )

作为参考,here是使用此基准测试测得的一些带宽值。

编辑:如何测量内核执行时间:

  1. 时钟
#include <thread>
class Clock {
private:
    typedef chrono::high_resolution_clock clock;
    chrono::time_point<clock> t;
public:
    Clock() { start(); }
    void start() { t = clock::now(); }
    double stop() const { return chrono::duration_cast<chrono::duration<double>>(clock::now()-t).count(); }
};
  1. K个内核执行的时间度量
const int K = 128; // execute kernel 128 times and average execution time
NDRange range_local  = NDRange(256); // thread block size
NDRange range_global = NDRange(N); // N must be divisible by thread block size
Clock clock;
clock.start();
for(int k=0; k<K; k++) {
    queue.enqueueNDRangeKernel(kernel_1,NullRange,range_global,range_local);
    queue.finish();
}
const double time1 = clock.stop()/(double)K;

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


使用本地python环境可以成功执行 import pandas as pd import matplotlib.pyplot as plt # 设置字体 plt.rcParams[&#39;font.sans-serif&#39;] = [&#39;SimHei&#39;] # 能正确显示负号 p
错误1:Request method ‘DELETE‘ not supported 错误还原:controller层有一个接口,访问该接口时报错:Request method ‘DELETE‘ not supported 错误原因:没有接收到前端传入的参数,修改为如下 参考 错误2:cannot r
错误1:启动docker镜像时报错:Error response from daemon: driver failed programming external connectivity on endpoint quirky_allen 解决方法:重启docker -&gt; systemctl r
错误1:private field ‘xxx‘ is never assigned 按Altʾnter快捷键,选择第2项 参考:https://blog.csdn.net/shi_hong_fei_hei/article/details/88814070 错误2:启动时报错,不能找到主启动类 #
报错如下,通过源不能下载,最后警告pip需升级版本 Requirement already satisfied: pip in c:\users\ychen\appdata\local\programs\python\python310\lib\site-packages (22.0.4) Coll
错误1:maven打包报错 错误还原:使用maven打包项目时报错如下 [ERROR] Failed to execute goal org.apache.maven.plugins:maven-resources-plugin:3.2.0:resources (default-resources)
错误1:服务调用时报错 服务消费者模块assess通过openFeign调用服务提供者模块hires 如下为服务提供者模块hires的控制层接口 @RestController @RequestMapping(&quot;/hires&quot;) public class FeignControl
错误1:运行项目后报如下错误 解决方案 报错2:Failed to execute goal org.apache.maven.plugins:maven-compiler-plugin:3.8.1:compile (default-compile) on project sb 解决方案:在pom.
参考 错误原因 过滤器或拦截器在生效时,redisTemplate还没有注入 解决方案:在注入容器时就生效 @Component //项目运行时就注入Spring容器 public class RedisBean { @Resource private RedisTemplate&lt;String
使用vite构建项目报错 C:\Users\ychen\work&gt;npm init @vitejs/app @vitejs/create-app is deprecated, use npm init vite instead C:\Users\ychen\AppData\Local\npm-
参考1 参考2 解决方案 # 点击安装源 协议选择 http:// 路径填写 mirrors.aliyun.com/centos/8.3.2011/BaseOS/x86_64/os URL类型 软件库URL 其他路径 # 版本 7 mirrors.aliyun.com/centos/7/os/x86
报错1 [root@slave1 data_mocker]# kafka-console-consumer.sh --bootstrap-server slave1:9092 --topic topic_db [2023-12-19 18:31:12,770] WARN [Consumer clie
错误1 # 重写数据 hive (edu)&gt; insert overwrite table dwd_trade_cart_add_inc &gt; select data.id, &gt; data.user_id, &gt; data.course_id, &gt; date_format(
错误1 hive (edu)&gt; insert into huanhuan values(1,&#39;haoge&#39;); Query ID = root_20240110071417_fe1517ad-3607-41f4-bdcf-d00b98ac443e Total jobs = 1
报错1:执行到如下就不执行了,没有显示Successfully registered new MBean. [root@slave1 bin]# /usr/local/software/flume-1.9.0/bin/flume-ng agent -n a1 -c /usr/local/softwa
虚拟及没有启动任何服务器查看jps会显示jps,如果没有显示任何东西 [root@slave2 ~]# jps 9647 Jps 解决方案 # 进入/tmp查看 [root@slave1 dfs]# cd /tmp [root@slave1 tmp]# ll 总用量 48 drwxr-xr-x. 2
报错1 hive&gt; show databases; OK Failed with exception java.io.IOException:java.lang.RuntimeException: Error in configuring object Time taken: 0.474 se
报错1 [root@localhost ~]# vim -bash: vim: 未找到命令 安装vim yum -y install vim* # 查看是否安装成功 [root@hadoop01 hadoop]# rpm -qa |grep vim vim-X11-7.4.629-8.el7_9.x
修改hadoop配置 vi /usr/local/software/hadoop-2.9.2/etc/hadoop/yarn-site.xml # 添加如下 &lt;configuration&gt; &lt;property&gt; &lt;name&gt;yarn.nodemanager.res