Reference
CUDA 事件
CUDA 事件(CUDA Event)是 CUDA 流中应用程序跟踪进度的一个方式,其本质是流执行过程中的一个标记,可以检查正在执行的流的操作是否到达该点
可以将事件当成一个操作插入到流的众多操作中,当执行到该操作时,所做的工作就是设置 host 端的一个 flag 来标记是否完成
事件通常执行以下两个基本事务:
- 同步流执行
- 监控设备的进展
举例来说,可使用 CUDA 事件来对算法计时,在算法开始前设置一个事件,在算法结束后设置一个事件,两个事件的时间差即为算法执行时间
事件的资源分配与回收
CUDA 中封装了 CUDA 事件类型 cudaEvent_t
,使用如下代码可声明一个事件
1 | cudaEvent_t event; |
在声明一个事件后,该事件无法使用,需要使用 cudaEventCreate()
来为其分配资源,在使用完毕后,使用 cudaEventDestroy()
回收资源
1 | __host__ cudaError_t cudaEventCreate(cudaEvent_t* event) |
需要注意的是,与 CUDA 流的资源释放相似,如果进行事件资源回收时,相关操作未完成,则在操作完成后会立刻释放资源
事件时间间隔
cudaEventRecord()
用于将事件添加到流中,当不指定非空流时,默认添加进空流,函数原型如下:
1 | __host__ __device__ cudaError_t cudaEventRecord(cudaEvent_t event, cudaStream_t stream = 0) |
cudaEventElapsedTime()
用于记录两个事件间的时间间隔,单位为毫秒,函数原型如下:
1 | __host__ cudaError_t cudaEventElapsedTime(float* ms, cudaEvent_t start, cudaEvent_t end) |
两个事件 start 和 stop 不必关联到同一个流上,但需要注意的是,由于 cudaEventRecord()
是异步发生的,如果二者任一关联到非空流上,是无法保证度量出的时间间隔恰好是这两个事件的时间间隔,得到的时间间隔可能比期望的要大
如果只是想要查看 GPU 工作的时间间隔,将 start 和 stop 事件都默认添加进空流即可
事件的同步函数
在流中的事件主要是等待前面的操作完成后触发,与流同步函数类似,事件也具有阻塞和非阻塞两种同步函数
1 | __host__ cudaError_t cudaEventSynchronize(cudaEvent_t event); |
cudaEventSynchronize()
会强制 host 端阻塞等待,直到事件前的所有操作执行完成;cudaStreamQuery()
会检查事件前的操作是否全部完成,不会阻塞 host 端,如果事件前的所有操作都执行完成,那么会返回 cudaSuccess
,否则返回 cudaErrorNotReady
实例
下述代码给出了记录事件时间间隔的实例
1 |
|