首页 > 编程语言 >深入浅出之cuda编程概念

深入浅出之cuda编程概念

时间:2024-10-19 23:21:10浏览次数:7  
标签:编程 blockDim int CUDA 深入浅出 线程 内存 GPU cuda

CUDA(Compute Unified Device Architecture)是NVIDIA推出的一种用于通用并行计算的编程模型和编程接口。它允许开发者利用NVIDIA GPU的强大计算能力来加速应用程序。CUDA编程涉及使用CUDA C/C++或CUDA Fortran等语言编写代码,这些代码可以在GPU上并行执行,从而显著提高计算性能。

一、CUDA软硬件结构

1、CUDA硬件结构

  1. CUDA核心(CUDA Cores,SP流处理器

    • CUDA核心是NVIDIA GPU上实际执行计算任务的处理单元,这些核心专为大规模并行处理而设计,能够高效地驱动GPU上的数千个并行处理单元同时工作。
    • 每个CUDA核心可以并发执行多个线程,这些线程通常以线程束(Warp)的形式组织,每个线程束包含一定数量的线程(如32个线程)。
    • SP(Streaming Processor):流处理器, 是GPU最基本的处理单元,在fermi架构开始被叫做CUDA core
  2. 流多处理器(Streaming Multiprocessors,SM)

    • SM是NVIDIA GPU内部的一个重要组成部分,由多个CUDA核心组成,并包含共享内存、缓存、warp scheduler等资源。
    • SM负责管理和执行一个或多个线程块(Blocks),内部资源如warp scheduler会负责调度和执行线程束。
    • SM(Streaming MultiProcessor): 一个SM由多个CUDA core组成,每个SM根据GPU架构不同有不同数量的CUDA core,Pascal架构中一个SM有128个CUDA core。
      SM还包括特殊运算单元(SFU),共享内存(shared memory),寄存器文件(Register File)和调度器(Warp Scheduler)等。register和shared memory是稀缺资源,这些有限的资源就使每个SM中active warps有非常严格的限制,也就限制了并行能力。

  3. 内存层次结构

    • CUDA具有独特的内存层次结构,包括全局内存、共享内存、常量内存、纹理内存等。
    • 全局内存用于存储大部分数据,可通过CPU与GPU之间的PCIe总线进行数据传输。
    • 共享内存用于线程块内部线程间的高效数据共享和通信。
    • 常量内存和纹理内存则优化了对频繁访问的不变数据的读取。
  4. 线程、线程块与网格(Threads, Blocks, Grids)

  • 线程(Threads):是CUDA中最小的执行单位。每个线程执行相同的程序代码,但可以处理不同的数据。
  • 线程块(Blocks):由多个线程组成的集合。线程块中的线程可以共享数据,并且可以通过同步机制来协调彼此的工作。线程块的大小在程序执行时是固定的。
  • 网格(Grids):由多个线程块组成的更大集合。网格中的所有线程块并行执行任务,网格的大小也在程序执行时固定。

2、CUDA软件结构

  1. CUDA指令集架构(ISA)

    • CUDA定义了一种针对GPU特性的指令集,允许程序员直接编写针对GPU硬件的代码。
    • 这些指令专为大规模并行处理而设计,能够高效地利用GPU的并行计算能力。
  2. CUDA编程接口

    • CUDA提供了基于C、C++和Fortran的编程接口,使得开发者能够使用熟悉的高级语言编写GPU代码。
    • CUDA扩展了这些语言,引入了特殊的语法和函数库,以便于表达并行计算任务、管理内存、同步线程等操作。
  3. CUDA内存管理

    • CUDA具有独特的内存管理机制,包括内存分配、释放、复制等操作。
    • 开发者可以使用CUDA提供的内存管理函数(如cudaMalloccudaFreecudaMemcpy等)来管理GPU设备内存。
  4. CUDA运行时环境

    • CUDA运行时环境提供了应用开发接口和运行期组件,包括基本数据类型的定义和各类计算、类型转换、内存管理、设备访问和执行调度等函数。
    • 基于CUDA开发的程序代码在实际执行中分为两种:运行在CPU上的宿主代码(Host Code)和运行在GPU上的设备代码(Device Code)。
  5. CUDA开发库

    • CUDA开发库是基于CUDA技术所提供的应用开发库,如CUFFT(离散快速傅立叶变换)和CUBLAS(离散基本线性计算)等。
    • 这些开发库提供了高性能的数学运算实现,使得开发者可以快速、方便地建立起自己的计算应用。
  6. CUDA工具链

    • NVIDIA提供了完整的CUDA开发工具链,包括编译器(nvcc)、调试器(Nsight Systems/Nsight Compute)、性能剖析器(Visual Profiler)等。
    • 这些工具链帮助开发者便捷地编写、调试、优化CUDA应用程序。

综上所述,CUDA的软硬件结构共同构成了一个强大且灵活的并行计算平台。硬件结构提供了高度并行的处理单元和多层次的内存系统,而软件结构则提供了丰富的编程接口、内存管理机制、运行时环境和开发库等工具。这些特性使得开发者能够充分利用GPU的并行计算能力来高效解决各类计算密集型问题。

二、CUDA基本概念

  1. 主机(Host):CPU及其内存,负责执行串行代码和管理资源。
  2. 设备(Device):GPU及其内存,负责执行并行代码。
  3. 内核(Kernel):在GPU上并行执行的函数。
  4. 线程(Thread):在GPU上执行的最小单位。
  5. 线程块(Block):一组线程,可以共享内存和同步。
  6. 网格(Grid):一组线程块,是内核执行时的组织单位。
  7. 线程束(wrap)

2.1、CUDA主机(Host)

CUDA中的主机(Host)是指CPU及其所使用的内存,以及在CPU上执行的代码。它是CUDA编程模型中的一个重要概念,与设备(Device)相对。以下是对CUDA主机的详细介绍:

1、主机的定义与功能

  1. 定义:在CUDA编程模型中,主机通常指的是CPU及其附属的内存资源。它是执行串行代码和进行设备管理的核心。

  2. 功能

    • 执行串行代码:主机负责执行那些无法并行化或不适合在GPU上执行的代码,如数据预处理、后处理以及设备间的数据传输等。

    • 设备管理:主机负责初始化设备、分配设备内存、启动内核函数(Kernel)以及管理设备上的线程等。

2、主机与设备的关系

  1. 数据传输:主机和设备之间需要频繁地进行数据传输。CUDA提供了高效的内存复制函数(如cudaMemcpy)来实现这一功能。数据传输的开销是影响CUDA程序性能的重要因素之一,因此在实际应用中需要尽量减少不必要的数据传输。

  2. 内核函数调用:主机通过调用内核函数来启动GPU上的并行计算任务。内核函数是在设备上执行的函数,它定义了GPU上线程的行为。主机在调用内核函数时,需要指定线程的配置(如线程块的数量和大小),以便GPU能够正确地分配和执行线程。

3、主机的编程接口

CUDA提供了丰富的编程接口来支持主机端的编程。这些接口包括:

  1. 内存管理接口:用于分配和释放设备内存,如cudaMalloc和cudaFree等。

  2. 数据传输接口:用于在主机和设备之间传输数据,如cudaMemcpy等。

  3. 内核函数调用接口:用于启动内核函数,并指定线程的配置,如cudaLaunchKernel(在CUDA 11.0及更高版本中引入)或传统的<<<>>>语法。

4、主机的优化策略

为了提高CUDA程序的性能,可以从以下几个方面对主机进行优化:

  1. 减少数据传输:尽量减少主机和设备之间的数据传输次数和数据量,以降低数据传输的开销。

  2. 优化内存管理:合理分配和管理设备内存,避免内存泄漏和碎片化等问题。

  3. 选择合适的内核函数配置:根据计算任务的规模和GPU的硬件资源,选择合适的线程块数量和大小,以实现高效的并行计算。

  4. 使用高效的算法和数据结构:选择适合GPU并行计算的算法和数据结构,以提高程序的执行效率。

综上所述,CUDA主机是CUDA编程模型中的重要组成部分,它负责执行串行代码、管理设备以及启动内核函数等任务。通过优化主机的编程和配置,可以进一步提高CUDA程序的性能。

2.2  CUDA设备(Device)

CUDA设备(Device)在CUDA(Compute Unified Device Architecture,统一计算架构)编程模型中,主要指的是NVIDIA的图形处理器(GPU)及其附属资源,这些资源被专门设计用于执行并行计算任务。以下是对CUDA设备的详细介绍:

1、CUDA设备的定义与功能

  1. 定义:CUDA设备是NVIDIA推出的基于GPU的并行计算平台,它利用GPU内部的大规模并行结构,通过CUDA编程模型实现高效的并行计算。

  2. 功能

    • 并行计算:CUDA设备能够同时处理多个计算任务,实现高效的并行计算。

    • 内存管理:CUDA设备拥有独立的内存空间,用于存储并行计算过程中所需的数据和指令。

    • 线程管理:CUDA设备能够管理大量的线程,这些线程在GPU的流处理器(SMs)上并行执行,实现高效的并发计算。

2、CUDA设备的硬件组成

CUDA设备主要由以下几个部分组成:

  1. 流处理器(Streaming Multiprocessors,SMs):SMs是GPU中的核心计算单元,负责执行并行计算任务。每个SM包含多个计算核心(如CUDA核心),能够同时处理多个线程。

  2. 内存系统:CUDA设备拥有独立的内存系统,包括全局内存、常量内存、纹理内存等。这些内存资源用于存储数据和指令,支持高效的内存访问和传输。

  3. 缓存:CUDA设备还包含各种缓存(如L1缓存、L2缓存等),用于加速数据访问和减少内存延迟。

3、CUDA设备与主机的关系

在CUDA编程模型中,CUDA设备与主机(Host)是协同工作的。主机通常指的是CPU及其附属的内存资源,而设备则指的是GPU及其附属资源。主机负责执行串行代码、管理设备资源以及启动内核函数等任务,而设备则负责执行并行计算任务。主机和设备之间通过CUDA编程接口进行通信和数据传输。

4、CUDA设备的编程接口

NVIDIA为CUDA设备提供了丰富的编程接口,包括CUDA C/C++、CUDA Fortran、CUDA Python等。这些接口允许开发者使用熟悉的编程语言来编写CUDA程序,并利用GPU的并行计算能力来加速计算密集型任务。此外,CUDA还提供了一系列高效的库和工具,如cuBLAS(基础线性代数子程序库)、cuDNN(深度神经网络库)、cuFFT(快速傅里叶变换库)等,这些库封装了针对特定计算任务优化的算法,极大地简化了开发过程。

5、CUDA设备的应用领域

CUDA设备在多个领域中都得到了广泛的应用,包括但不限于:

  1. 科学计算:CUDA设备能够加速物理模拟、分子动力学、气候建模等科学计算任务。

  2. 大数据分析:CUDA设备能够加速大规模数据集的过滤、排序、统计等操作,提升数据处理效率。

  3. 人工智能:CUDA设备已成为深度学习训练与推理的首选平台,为卷积神经网络(CNN)、循环神经网络(RNN)等模型提供高效计算支持。

  4. 图像处理:CUDA设备能够加速图像渲染、图像识别等图像处理任务。

综上所述,CUDA设备是NVIDIA推出的基于GPU的并行计算平台,它利用GPU内部的大规模并行结构实现高效的并行计算。通过CUDA编程接口和丰富的库与工具支持,开发者可以轻松地利用GPU的并行计算能力来加速计算密集型任务。

 2.3、CUDA核函数

CUDA核函数(CUDA Kernel Function)是在NVIDIA GPU上并行执行的一段代码,通常由C/C++语言编写,并通过特定的CUDA语法进行扩展。

核函数是CUDA编程模型的核心,它允许开发者将计算密集型任务卸载到GPU上,从而利用GPU的并行处理能力加速计算。 

核函数的基本特点

  1. 全局性:核函数使用__global__限定符进行声明,这意味着它们可以从主机(CPU)代码中调用,并在设备(GPU)上执行。

  2. 并行性:核函数在GPU上由多个线程并行执行。这些线程以线程块(block)的形式组织,每个线程块可以包含多个线程。线程块之间可以独立执行,但线程块内的线程可以共享内存和进行同步。

  3. 特殊变量:核函数内部可以使用一些特殊的内置变量来访问线程和线程块的索引,例如threadIdx(线程索引)、blockIdx(线程块索引)和blockDim(线程块大小)。这些变量对于实现并行算法至关重要。

  4. 内存访问:核函数可以访问设备内存(如全局内存、共享内存和纹理内存)以及主机内存(通过统一内存访问或显式内存复制)。

  5. 同步和通信:核函数内部的线程可以通过同步原语(如__syncthreads())进行同步,但核函数之间的线程无法直接通信。核函数之间的通信通常通过设备内存或主机代码进行。

核函数的编写和执行

  1. 编写核函数:使用__global__限定符声明一个函数,并在函数内部编写计算逻辑。

  2. 返回值:返回值只能是void

  3. 配置执行参数:在调用核函数时,需要指定网格(grid)和线程块(block)的大小。这可以通过<<<gridSize, blockSize>>>语法来实现,其中gridSizeblockSizedim3类型的变量,表示网格和线程块的维度。

  4. 内存管理:在核函数执行之前,需要将数据从主机内存复制到设备内存。在核函数执行之后,需要将结果从设备内存复制回主机内存。这可以通过CUDA内存管理函数(如cudaMalloccudaMemcpycudaFree)来实现。

  5. 启动核函数:使用前面配置的网格和线程块大小来启动核函数。核函数将并行地在GPU上执行,直到所有线程完成计算。

示例

dim3 threadsPerBlock(16, 16); // 256 threads per block  
dim3 blocksPerGrid(64, 64); // 4096 blocks in the grid  
  
__global__ void matrixAdd(float *A, float *B, float *C, int width) {  
    int row = blockIdx.y * blockDim.y + threadIdx.y;  
    int col = blockIdx.x * blockDim.x + threadIdx.x;  
    if (row < width && col < width) {  
        int index = row * width + col;  
        C[index] = A[index] + B[index];  
    }  
}  
  
// 调用核函数  
matrixAdd<<<blocksPerGrid, threadsPerBlock>>>(A, B, C, 1024);
​第一个参数为网格参数,代表有多少个线程块
第二个参数为线程块参数,代表有多少个线程

运行在GPU中地函数称作kernel,该函数有这么几个要求:

  • 声明时在返回类型前需要添加"__globol__"的标识
  • 返回值只能是void

除了声明时的不同,和函数的调用也是不一样的,需要以 “kernel_name <<< >>>();”的形式调用。而在尖括号中间,则是定义了启用了多少个GPU核,学习这一参数的使用,我们还需要知道下面几个概念:

  • dim3:一种数据类型,包含x,y,z三个int 类型的成员,在初始化时一个dim3类型的变量时,成员值默认为1
  • grid : 一个grid中包含多个block
  • block: 一个block包含多个thread

我们以一种更抽象的方式来理解GPU中程序的运行方式的话,可以这么看:

GPU中的每个核可以独立的运行一个线程,那我们就使用thread来代表GPU中的核,但一个GPU中的核数量很多,就需要有更高级的结构对全部用到的核进行约束、管理,这就是block(块),一个块中可以包含多个核,并且这些核在逻辑上的排布可以是三维的,在一个块中我们可以使用一个dim3类型的量threadIdx来表示每个核所处的位置,threadIdx.x、threadIdx.y、threadIdx.z分别表示在三个维度上的坐标;此外,每个块还带有一个dim3类型的属性blockDim,blockDim.x、blockDim.y、blockDim.z分别表示该block三个维度上各有多少个核,这个block中的总核数为blockDim.x * blockDim.y * blockDim.z;

我们一次使用的多个block,最好能使用一个容器把他们都包起来,这就是grid,类比于上文中thread和block的关系,block和grid也有相似的关系。我们使用blockIdx.x、blockIdx.y、blockIdx.z表示每个block在grid中的位置;同样,grid也具有gridDim.x、gridDim.y和gridDim.z三个属性以及三者相乘的总block数。

知道了上面这些知识后,我们可以对“kernel_name <<< >>>();”中尖括号中的参数做一个更具体的解释,它应该被定义为在GPU中执行这一核函数的所有核的组织形式,以"kernel_name <<< number_of_blocks, thread_per_block>>> (arguments)"的形式使用.

2.4、CUDA 线程(Thread)

CUDA(Compute Unified Device Architecture)线程是NVIDIA推出的通用并行计算平台和编程模型中的基本执行单元。以下是对CUDA线程的详细介绍:

1、CUDA线程的基本概念

CUDA线程是GPU执行并行计算任务的最小单元。在CUDA编程模型中,线程承载着实际的计算任务,并通过GPU中的并行计算引擎实现高效的并行计算。每个线程都拥有独一无二的ID,该ID由线程所在的线程块和线程块中的位置共同决定,从而确保线程能够精确地确定自己在整个计算任务中的位置。

2、CUDA线程的层次结构

CUDA线程模型精心构建了三个层次:线程(Thread)、线程块(Block)和线程网格(Grid)。

  1. 线程(Thread):作为计算的基本单元,线程完成实际的计算任务。每个线程都有自己的指令地址计数器和寄存器状态,利用自身的数据执行当前的指令。

  2. 线程块(Block):由多个线程组成,是线程管理的中间层次。线程块之间并行执行,但无法直接通信或同步。线程块可以看作是一个三维的矩阵,其中包含了一定数量的线程。

  3. 线程网格(Grid):由多个线程块组成,是线程管理的最高层次。线程网格也呈现为一个三维结构,用于管理和组织线程块。

3、CUDA线程的执行方式

在CUDA中,线程的执行是以线程束(Warp)为单位的。线程束是GPU的基本执行单元,通常包含32个线程。GPU每次调用线程时,都是以线程束为单位进行调度的。在一个线程束中,所有的线程按照单指令多线程(SIMT)方式执行,即所有线程执行相同的指令,但操作的数据可能不同。

4、CUDA线程的标识与定位

在CUDA编程中,为了唯一标识和定位每个线程,通常使用以下变量:

  1. threadIdx:表示线程在其所在线程块中的索引,是一个三维向量(threadIdx.x, threadIdx.y, threadIdx.z),分别表示线程在x、y、z三个维度上的位置。

  2. blockIdx:表示线程块在其所在线程网格中的索引,同样是一个三维向量(blockIdx.x, blockIdx.y, blockIdx.z)。

  3. blockDim:表示线程块的大小,即线程块中线程的数量,也是一个三维向量(blockDim.x, blockDim.y, blockDim.z)。

  4. gridDim:表示线程网格的大小,即线程网格中线程块的数量,同样是一个三维向量(gridDim.x, gridDim.y, gridDim.z)。

通过这些变量,可以唯一地标识和定位每个线程,从而实现精确的并行计算任务分配。

5、CUDA线程与内存模型的关系

CUDA内存模型中包括不可编程存储器和可编程存储器。可编程存储器包括寄存器、共享内存、本地内存、常量内存、纹理内存以及全局内存等。CUDA线程在执行计算任务时,会频繁地访问这些内存资源。

  1. 寄存器:速度最快,但数量有限。线程在执行时,会尽量使用寄存器来存储数据,以提高访问速度。

  2. 共享内存:位于GPU内部,访问速度较快。线程块内的线程可以共享同一块共享内存,用于线程间的数据共享和通信。

  3. 全局内存:位于GPU外部,访问速度较慢。但全局内存是GPU中最大、最常使用的内存资源,用于存储大量的数据。

在CUDA编程中,需要合理地使用这些内存资源,以提高程序的执行效率。例如,可以通过使用共享内存来减少全局内存的访问次数,从而降低内存访问延迟。

6、CUDA线程的应用与优化

CUDA线程在并行计算领域具有广泛的应用,如图像处理、科学计算、金融分析等领域。在应用CUDA线程时,需要注意以下几点以优化性能:

  1. 合理划分线程块和线程网格的大小:根据计算任务的规模和GPU的硬件资源,合理地划分线程块和线程网格的大小,以实现高效的并行计算。

  2. 避免分支分歧:尽量减少线程中的分支语句,以避免分支分歧对性能的影响。可以通过使用条件语句的替代方法(如查表法)来减少分支语句的使用。

  3. 优化内存访问:合理使用各种内存资源,如寄存器、共享内存和全局内存等。通过减少全局内存的访问次数和优化内存访问模式(如合并内存访问)来提高内存访问效率。

  4. 使用高效的算法和数据结构:选择适合GPU并行计算的算法和数据结构,以提高程序的执行效率。例如,可以使用快速傅里叶变换(FFT)等高效算法来处理大规模数据。

综上所述,CUDA线程是GPU并行计算中的重要概念。了解CUDA线程的基本概念、层次结构、执行方式以及与内存模型的关系等知识点,有助于开发者更好地利用GPU的并行计算能力来加速计算密集型任务的执行。

2.5、CUDA线程束wrap

CUDA中的Wrap是一个重要的概念,尤其在GPU的并行计算中扮演着关键角色。以下是对CUDA Wrap的详细解释:

1、Wrap的定义

在CUDA编程中,由于硬件限制,线程被组织成Wrap进行执行。Wrap是GPU调度和执行线程的最基本单元,可以看作是GPU硬件执行单元的一种抽象。每个Wrap包含一定数量的线程,这些线程在GPU上并行执行相同的指令(但处理的数据可能不同)。

SM采用的SIMT(Single-Instruction, Multiple-Thread,单指令多线程)架构,warp(线程束)是最基本的执行单元,一个warp包含32个并行thread,这些thread以不同数据资源执行相同的指令

当一个kernel被执行时,grid中的线程块被分配到SM上,一个线程块的thread只能在一个SM上调度,SM一般可以调度多个线程块,大量的thread可能被分到不同的SM上。每个thread拥有它自己的程序计数器和状态寄存器,并且用该线程自己的数据执行指令,这就是所谓的Single Instruction Multiple Thread(SIMT)。

一个CUDA core可以执行一个thread,一个SM的CUDA core会分成几个warp(即CUDA core在SM中分组),由warp scheduler负责调度。尽管warp中的线程从同一程序地址,但可能具有不同的行为,比如分支结构,因为GPU规定warp中所有线程在同一周期执行相同的指令,warp发散会导致性能下降。一个SM同时并发的warp是有限的,因为资源限制,SM要为每个线程块分配共享内存,而也要为每个线程束中的线程分配独立的寄存器,所以SM的配置会影响其所支持的线程块和warp并发数量。

每个block的warp数量可以由下面的公式计算获得:

一个warp中的线程必然在同一个block中,如果block所含线程数目不是warp大小的整数倍,那么多出的那些thread所在的warp中,会剩余一些inactive的thread,也就是说,即使凑不够warp整数倍的thread,硬件也会为warp凑足,只不过那些thread是inactive状态,需要注意的是,即使这部分thread是inactive的,也会消耗SM资源。由于warp的大小一般为32,所以block所含的thread的大小一般要设置为32的倍数。

2、Wrap的组成与特性

  1. 线程数量:通常情况下,一个Wrap包含32个线程。这些线程在执行时共享相同的指令流,但各自处理不同的数据。

  2. 执行单元:Wrap被分配到一个或多个流多处理器(Streaming Multiprocessors,SM)上执行。SM是GPU内部的一个重要组成部分,包含多个CUDA核心和其他资源,用于管理和执行线程块(Blocks)中的线程。

  3. 并行执行:虽然Wrap内的线程是并行执行的,但从硬件角度看,并不是所有的Wrap都能在同一时间执行。GPU的调度器会根据资源和负载情况,动态地分配Wrap到SM上执行。

3、Wrap与性能优化

  1. 分支效率:由于GPU的分支预测能力相对较弱,如果Wrap中的线程在执行时遇到分支控制语句(如if-else语句),可能会导致分支分歧(Warp Divergence)。这会影响性能,因为GPU需要等待所有线程完成当前分支的执行后才能继续执行下一个指令。因此,在设计CUDA程序时,应尽量避免或减少分支语句的使用,以提高Wrap的执行效率。

  2. 共享内存访问:Wrap内的线程可以访问共享内存(Shared Memory),这有助于线程间的高效数据共享和通信。然而,如果多个Wrap同时访问同一个共享内存区域,可能会导致银行冲突(Bank Conflict),从而影响性能。因此,在设计共享内存访问时,需要仔细考虑数据的布局和访问模式,以减少银行冲突的发生。

4、Wrap在CUDA编程中的应用

在CUDA编程中,开发者需要了解Wrap的概念和特性,以便更好地利用GPU的并行计算能力。例如,在编写kernel函数时,需要指定线程的组织方式(包括Grid、Block和Wrap的大小),以确保程序能够正确地利用GPU的硬件资源。此外,还需要注意避免分支分歧和银行冲突等性能问题,以提高程序的执行效率。

综上所述,CUDA中的Wrap是GPU并行计算中的一个重要概念。了解Wrap的定义、组成与特性以及其在性能优化和CUDA编程中的应用,有助于开发者更好地利用GPU的并行计算能力来加速计算密集型任务的执行。

2.6、CUDA线程块(Block)

CUDA中的Block(线程块)是一个重要的概念,它是CUDA并行计算模型中的基本组织单元。以下是对CUDA Block的详细解释:

1、定义与组成

  • 定义:Block是CUDA编程模型中的一个基本概念,它代表了一组同时启动的线程,这些线程可以协同工作并通过共享内存进行通信。

  • 组成:每个Block内部包含了一定数量的线程(Thread),这些线程以三维结构组织,但实践中常用的是一维或二维结构。

2、特点与功能

  1. 共享内存:Block内的线程可以共享一块内存区域,即共享内存(Shared Memory)。这使得线程间的数据交换和通信变得高效。

  2. 同步机制:Block内的线程可以通过同步原语(如__syncthreads())进行同步,确保所有线程在执行到某个点时都达到一致状态。

  3. 并行执行:虽然Block内的线程是并行执行的,但不同Block之间的线程是独立执行的,它们之间没有直接的通信和同步机制。

  4. 执行效率:Block的设计考虑了GPU的物理架构,以实现最大的并行性和效率。一个Block中的线程通常会被映射到同一个GPU的流多处理器(Streaming Multiprocessor,SM)上执行。

3、配置与执行

  1. 配置:在调用CUDA核函数(Kernel)时,需要指定网格(Grid)和Block的大小。Grid是由多个Block组成的,而每个Block则包含了一定数量的线程。这些大小可以通过dim3类型的变量来指定,其中dim3是一个表示三维向量的数据类型。

  2. 执行:当核函数被调用时,它会根据指定的Grid和Block大小,在GPU上启动相应数量的线程。这些线程会并行地执行核函数中的代码,直到所有线程都完成计算。

4、应用场景与示例

CUDA Block广泛应用于各种并行计算场景,如图像处理、科学计算、金融模拟等。以下是一个简单的示例,展示了如何使用CUDA Block进行二维矩阵加法:

// CUDA核函数,计算两个矩阵的和  
__global__ void matrixAdd(float *A, float *B, float *C, int width, int height) {  
    int x = blockIdx.x * blockDim.x + threadIdx.x; // 计算当前线程的x坐标  
    int y = blockIdx.y * blockDim.y + threadIdx.y; // 计算当前线程的y坐标  
    int index = x + y * width; // 计算当前线程在矩阵中的索引  
  
    if (x < width && y < height) { // 确保索引在矩阵范围内  
        C[index] = A[index] + B[index]; // 计算矩阵和  
    }  
}  
  
// 在主机代码中调用核函数  
dim3 blockSize(16, 16); // 每个Block的大小为16x16  
dim3 gridSize((width + blockSize.x - 1) / blockSize.x,   
              (height + blockSize.y - 1) / blockSize.y); // 根据矩阵大小和Block大小计算Grid大小  
  
matrixAdd<<<gridSize, blockSize>>>(d_A, d_B, d_C, width, height); // 调用核函数

在这个示例中,我们定义了一个二维的Block大小(16x16),并根据矩阵的大小计算出了Grid的大小。然后,我们调用了核函数matrixAdd,将两个矩阵AB相加得到矩阵C。在核函数内部,我们使用blockIdxthreadIdx来计算每个线程在矩阵中的位置,并相应地执行加法操作。

综上所述,CUDA Block是CUDA并行计算模型中的一个重要概念,它允许线程间的协作和通信,并通过共享内存和同步机制提高了并行计算的效率。

2.7、CUDA网格(Grid)

CUDA网格(Grid)是CUDA编程模型中的一个核心概念,它代表了线程块(Block)的集合,为我们提供了一个更高级别的组织结构,以便在更大的规模上并行执行任务。以下是对CUDA网格的详细解释:

1、网格的定义

  • 基本概念:在CUDA编程中,当你启动一个核函数(kernel)时,你会定义一个网格(Grid)。这个网格是由多个线程块(Block)组成的,而每个线程块内部又包含了一定数量的线程(Thread)。

  • 维度:网格可以是一维、二维或三维的。这取决于你的具体需求和问题规模。在实践中,一维和二维的网格更为常见。

  • 表示方法:网格的尺寸通常使用dim3类型来表示,它是一个包含xyz三个成员变量的结构体,分别代表网格在三个维度上的大小。

2、网格的作用

  • 并行计算:网格是CUDA中实现并行计算的基础。通过定义网格,你可以在GPU上并行地执行大量的线程块,从而充分利用GPU的并行计算能力。

  • 任务划分:在CUDA编程中,你通常需要将一个大任务划分为多个小任务,并将这些小任务分配给不同的线程块来执行。网格为你提供了一个方便的方式来组织和管理这些线程块。

  • 资源分配:当你启动一个核函数时,CUDA运行时将会为网格中的每一个线程块分配资源,并调度它们在GPU上执行。这样,你就可以在GPU上高效地执行并行计算任务。

3、网格与线程块的关系

  • 包含关系:网格是由多个线程块组成的。每个线程块都是网格中的一个独立执行单元。

  • 索引关系:在CUDA编程中,每个线程块和线程都有一个唯一的索引,用于标识它们在网格和线程块中的位置。这些索引对于并行计算中的线程同步和数据划分非常重要。

  • 执行方式:当CUDA核函数被调用时,它会以线程块为单位在GPU上执行。每个线程块内的线程会并行执行相同的代码,但处理不同的数据。

4、网格的创建和使用

  • 创建网格:在CUDA编程中,你通常需要使用dim3类型来创建一个网格对象,并指定其在三个维度上的大小。

  • 配置核函数:在调用CUDA核函数时,你需要通过执行配置<<<grid, block>>>来指定核函数所使用的网格和线程块的尺寸。这样,CUDA运行时就可以根据这些信息来分配资源和调度执行。

  • 编写核函数:在核函数中,你可以使用线程和线程块的索引来计算每个线程应该处理的数据位置,并执行相应的计算任务。

5、示例

假设我们有两个大型的1024×1024浮点数矩阵A和B,我们的目标是求和得到一个新的矩阵C,其中每个元素C[i][j]是A[i][j]和B[i][j]的和。为了并行化此操作,我们可以为每个矩阵元素分配一个线程。考虑到硬件的限制,我们选择每个线程块的大小为16×16,即每个线程块有256个线程。那么,我们需要64×64=4096个线程块来覆盖整个1024×1024的矩阵。这意味着我们的网格将是一个64×64的线程块集合。

在CUDA编程中,我们可以这样定义网格和线程块,并调用核函数:

dim3 threadsPerBlock(16, 16); // 256 threads per block  
dim3 blocksPerGrid(64, 64); // 4096 blocks in the grid  
  
__global__ void matrixAdd(float *A, float *B, float *C, int width) {  
    int row = blockIdx.y * blockDim.y + threadIdx.y;  
    int col = blockIdx.x * blockDim.x + threadIdx.x;  
    if (row < width && col < width) {  
        int index = row * width + col;  
        C[index] = A[index] + B[index];  
    }  
}  
  
// 调用核函数  
matrixAdd<<<blocksPerGrid, threadsPerBlock>>>(A, B, C, 1024);

在这个示例中,我们定义了一个64×64的网格和一个16×16的线程块。然后,我们编写了一个核函数matrixAdd来执行矩阵加法操作。最后,我们通过执行配置<<<blocksPerGrid, threadsPerBlock>>>来调用核函数,并传递矩阵A、B、C和矩阵的宽度作为参数。

综上所述,CUDA网格是CUDA编程模型中的一个重要概念,它为我们提供了一个方便的方式来组织和管理线程块,并在GPU上高效地执行并行计算任务。

 2.8、网格(Grid)、线程块(Block)和线程(Thread)的组织关系

1. 三者关系

 三者关系: 一个CUDA的并行程序会被以许多个thread来执行,数个thread会被群组成一个block,同一个block中的thread可以同步,也可以通过shared memory进行通信,多个block则会再构成grid。

2、 网格(Grid)、线程块(Block)和线程(Thread)的最大数量

CUDA中可以创建的网格数量跟GPU的计算能力有关,可创建的Grid、Block和Thread的最大数量参看以下表格:

在单一维度上,程序的执行可以由多达3*65535*512=100661760(一亿)个线程并行执行,这对在CPU上创建并行线程来说是不可想象的。

线程索引的计算公式

一个Grid可以包含多个Blocks,Blocks的组织方式可以是一维的,二维或者三维的。block包含多个Threads,这些Threads的组织方式也可以是一维,二维或者三维的。
CUDA中每一个线程都有一个唯一的标识ID—ThreadIdx,这个ID随着Grid和Block的划分方式的不同而变化,这里给出Grid和Block不同划分方式下线程索引ID的计算公式。

在CUDA编程中,为了唯一标识和定位每个线程,通常使用以下变量:

  1. threadIdx:表示线程在其所在线程块中的索引,是一个三维向量(threadIdx.x, threadIdx.y, threadIdx.z),分别表示线程在x、y、z三个维度上的位置。

  2. blockIdx:表示线程块在其所在线程网格中的索引,同样是一个三维向量(blockIdx.x, blockIdx.y, blockIdx.z)。

  3. blockDim:表示线程块的大小,即线程块中线程的数量,也是一个三维向量(blockDim.x, blockDim.y, blockDim.z)。

  4. gridDim:表示线程网格的大小,即线程网格中线程块的数量,同样是一个三维向量(gridDim.x, gridDim.y, gridDim.z)。

通过这些变量,可以唯一地标识和定位每个线程,从而实现精确的并行计算任务分配。

  •  grid划分成1维,block划分为1维

    int threadId = blockIdx.x *blockDim.x + threadIdx.x;  
  

  • grid划分成1维,block划分为2维  

    int threadId = blockIdx.x * blockDim.x * blockDim.y+ threadIdx.y * blockDim.x + threadIdx.x;  

  • grid划分成1维,block划分为3维  

    int threadId = blockIdx.x * blockDim.x * blockDim.y * blockDim.z  
                       + threadIdx.z * blockDim.y * blockDim.x  
                       + threadIdx.y * blockDim.x + threadIdx.x;  

  • grid划分成2维,block划分为1维  

    int blockId = blockIdx.y * gridDim.x + blockIdx.x;  
    int threadId = blockId * blockDim.x + threadIdx.x;  
   

  • grid划分成2维,block划分为2维 

    int blockId = blockIdx.x + blockIdx.y * gridDim.x;  
    int threadId = blockId * (blockDim.x * blockDim.y)  
                       + (threadIdx.y * blockDim.x) + threadIdx.x;  
    

  • grid划分成2维,block划分为3维

    int blockId = blockIdx.x + blockIdx.y * gridDim.x;  
    int threadId = blockId * (blockDim.x * blockDim.y * blockDim.z)  
                       + (threadIdx.z * (blockDim.x * blockDim.y))  
                       + (threadIdx.y * blockDim.x) + threadIdx.x;  
   

  • grid划分成3维,block划分为1维 

    int blockId = blockIdx.x + blockIdx.y * gridDim.x  
                     + gridDim.x * gridDim.y * blockIdx.z;  
    int threadId = blockId * blockDim.x + threadIdx.x;  
  

  • grid划分成3维,block划分为2维  

    int blockId = blockIdx.x + blockIdx.y * gridDim.x  
                     + gridDim.x * gridDim.y * blockIdx.z;  
    int threadId = blockId * (blockDim.x * blockDim.y)  
                       + (threadIdx.y * blockDim.x) + threadIdx.x;  
   

  • grid划分成3维,block划分为3维

    int blockId = blockIdx.x + blockIdx.y * gridDim.x  
                     + gridDim.x * gridDim.y * blockIdx.z;  
    int threadId = blockId * (blockDim.x * blockDim.y * blockDim.z)  
                       + (threadIdx.z * (blockDim.x * blockDim.y))  
                       + (threadIdx.y * blockDim.x) + threadIdx.x;     

2.9 CUDA结构体dim

在CUDA编程中,dim 通常指的是定义线程块(block)和线程网格(grid)维度的结构体。然而,需要注意的是,CUDA标准API中定义的是 dim3 结构体,而不是 dim 或 dim2dim3 结构体用于表示一维、二维或三维的尺寸,其定义包含三个无符号整数成员:xy 和 z

以下是 dim3 结构体的详细说明:

dim3 结构体的定义

struct dim3 {  
    unsigned int x; // 第一个维度的大小  
    unsigned int y; // 第二个维度的大小  
    unsigned int z; // 第三个维度的大小  
};
  • x:表示第一个维度的大小。对于一维结构,这表示总元素数;对于二维结构,这表示每行的元素数(宽度)。

  • y:表示第二个维度的大小。对于二维结构,这表示行数(高度);对于三维结构或一维结构,这个值可以设为1或不使用。

  • z:表示第三个维度的大小。通常用于三维结构,表示深度;对于一维或二维结构,这个值通常设为1。

dim3 结构体的使用

在CUDA编程中,dim3 用于定义线程块和线程网格的尺寸。例如,如果你想创建一个二维的线程网格,每个线程块有8x2个线程,而整个网格有2x2个这样的块,你可以这样定义:

int nx = 16;
int ny = 4;
dim3 block(8, 2); // z默认为1
dim3 grid(nx/8, ny/2);
addKernel << <grid, block >> >(c, a, b);

 这一示例中创建了一个有(2*2)个block的grid,每个block中有(8*2)个thread,下图给出了更直观的表述​​​​​​​

需要注意的是,对block、grid的尺寸定义并不是没有限制的,一个GPU中的核的数量同样是有限制的。对于一个block来说,总的核数不得超过1024,x、y维度都不得超过1024,z维度不得超过64,如下图

 对于整个grid而言,x维度上不得有超过\(2^{32}-1\)个thread,注意这里是thread而不是block,在其y维度和z维度上thread数量不得超过65536.

然后,你可以使用这些 dim3 变量来配置内核(kernel)的启动参数:

myKernel<<<gridSize, blockSize>>>(...);

这里,myKernel 是你的CUDA内核函数,<<<gridSize, blockSize>>> 指定了内核的启动配置,包括网格和块的维度。

注意事项

  • 在定义 dim3 变量时,如果某个维度不需要,可以将其设为1,但通常不建议省略该维度,以保持代码的一致性和可读性。

  • CUDA编程中的线程是多维的,可以灵活地定义为一维、二维或三维结构,以适应不同的并行计算需求。

  • 使用 dim3 结构体时,需要包含CUDA的头文件(如 cuda_runtime.h),并确保你的开发环境已经正确配置了CUDA工具链。

综上所述,dim 在CUDA中通常指的是定义线程块和线程网格维度的结构体,但标准API中使用的是 dim3 结构体,而不是 dim 或 dim2

三、编程步骤

  1. 配置开发环境
    • 安装CUDA Toolkit。
    • 配置IDE(如Visual Studio、CLion等)以使用CUDA编译器(nvcc)。
  2. 编写CUDA代码
    • 使用CUDA C/C++编写代码,包括主机代码和设备代码。
    • 主机代码在CPU上执行,设备代码在GPU上执行。
  3. 内存管理
    • 使用cudaMalloccudaFree在GPU上分配和释放内存。
    • 使用cudaMemcpy在主机和设备之间传输数据。
  4. 内核函数
    • 使用__global__关键字定义内核函数。
    • 内核函数的参数包括线程索引,这些索引用于确定每个线程处理的数据。
  5. 启动内核
    • 使用<<<gridSize, blockSize>>>语法启动内核,指定网格和线程块的大小。
  6. 同步和错误检查
    • 使用cudaDeviceSynchronize等待GPU完成所有操作。
    • 使用cudaGetLastErrorcudaPeekAtLastError检查错误。

简单说流程

  1. 在CPU中初始化数据
  2. 将输入传入GPU中
  3. 利用分配好的grid和block启动kernel函数
  4. 将计算结果传入cpu中
  5. 释放申请的内存空间

一个CUDA程序主要分为两部分,第一部分运行在CPU上,称之为Host code,主要负责完成复杂的指令,第二部分运行在GPU上,称之为Device code,主要负责并行地完成指令。

代码示例:

#include <iostream>  
#include <cuda_runtime.h>  
  
// CUDA内核函数,计算两个向量的加法  
__global__ void vectorAdd(const float *A, const float *B, float *C, int numElements) {  
    int i = blockIdx.x * blockDim.x + threadIdx.x;  
    if (i < numElements) {  
        C[i] = A[i] + B[i];  
    }  
}  
  
int main() {  
    int numElements = 50000;  
    size_t size = numElements * sizeof(float);  
  
    // 在主机上分配内存  
    float *h_A = (float *)malloc(size);  
    float *h_B = (float *)malloc(size);  
    float *h_C = (float *)malloc(size);  
  
    // 初始化向量A和B  
    for (int i = 0; i < numElements; ++i) {  
        h_A[i] = static_cast<float>(i);  
        h_B[i] = static_cast<float>(2 * i);  
    }  
  
    // 在设备上分配内存  
    float *d_A = nullptr;  
    float *d_B = nullptr;  
    float *d_C = nullptr;  
    cudaMalloc((void **)&d_A, size);  
    cudaMalloc((void **)&d_B, size);  
    cudaMalloc((void **)&d_C, size);  
  
    // 将数据从主机复制到设备  
    cudaMemcpy(d_A, h_A, size, cudaMemcpyHostToDevice);  
    cudaMemcpy(d_B, h_B, size, cudaMemcpyHostToDevice);  
  
    // 配置内核参数并启动内核  
    int threadsPerBlock = 256;  
    int blocksPerGrid = (numElements + threadsPerBlock - 1) / threadsPerBlock;  
    vectorAdd<<<blocksPerGrid, threadsPerBlock>>>(d_A, d_B, d_C, numElements);  
  
    // 将结果从设备复制回主机  
    cudaMemcpy(h_C, d_C, size, cudaMemcpyDeviceToHost);  
  
    // 验证结果  
    bool success = true;  
    for (int i = 0; i < numElements; ++i) {  
        if (fabs(h_A[i] + h_B[i] - h_C[i]) > 1e-5) {  
            success = false;  
            break;  
        }  
    }  
  
    // 打印结果  
    if (success) {  
        std::cout << "Test PASSED" << std::endl;  
    } else {  
        std::cout << "Test FAILED" << std::endl;  
    }  
  
    // 释放内存  
    cudaFree(d_A);  
    cudaFree(d_B);  
    cudaFree(d_C);  
    free(h_A);  
    free(h_B);  
    free(h_C);  
  
    return 0;  
}

四、CUDA主机端与设备端之间的数据传输

在CUDA编程模型中,host(主机端,即CPU)与device(设备端,即GPU)之间的数据传输是一个至关重要的环节。以下是对CUDA中host与device数据传输的详细分析:

1、数据传输的基本方式

CUDA提供了多种方式来在host与device之间传输数据,主要包括以下几种:

  1. cudaMemcpy:这是CUDA中最常用的数据传输函数,用于将数据从host端拷贝到device端,或者从device端拷贝到host端。它支持一维数据的传输,并且可以通过指定不同的拷贝方向(如cudaMemcpyHostToDevice、cudaMemcpyDeviceToHost等)来实现数据的双向传输。

  2. cudaMemcpy2D/cudaMemcpy3D:这些函数用于传输二维或三维数据。对于二维数据,cudaMemcpy2D允许指定每行的字节数(pitch),这对于内存对齐和性能优化非常重要。

  3. 异步传输:CUDA还支持异步数据传输,即cudaMemcpyAsync、cudaMemcpy2DAsync和cudaMemcpy3DAsync等函数。这些函数允许数据传输与CUDA内核的执行并行进行,从而进一步提高程序的性能。

2、数据传输的性能优化

由于host与device之间的数据传输通常受到PCIe总线带宽的限制,因此优化数据传输性能对于提高CUDA程序的整体性能至关重要。以下是一些优化数据传输性能的建议:

  1. 减少数据传输量:尽可能减少在host与device之间传输的数据量。这可以通过在GPU上执行更多的计算来减少数据传输的需求,或者通过优化数据结构和算法来减少不必要的数据传输。

  2. 使用锁页内存(Pinned Memory):锁页内存是一种特殊的内存分配方式,它允许GPU直接访问host内存,而无需通过系统内存进行中转。这可以显著提高数据传输的速度。在CUDA中,可以使用cudaMallocHost或cudaHostAlloc函数来分配锁页内存。

  3. 批量传输:将多个小的数据传输合并为一个大的传输可以显著提高性能,因为这样可以减少每次传输的开销。

  4. 重叠数据传输与计算:利用CUDA的异步传输功能,可以在数据传输的同时执行CUDA内核,从而隐藏数据传输的延迟。

  5. 内存对齐:确保数据的内存对齐可以提高传输性能。特别是对于二维和三维数据,使用cudaMallocPitch来分配内存可以确保每行的字节数对齐到适当的边界。

3、数据传输的示例代码

以下是一个简单的示例代码,演示了如何在CUDA中使用cudaMemcpy函数来传输数据:

#include <stdio.h>  
  
__global__ void myKernel(int *data) {  
    int idx = blockIdx.x * blockDim.x + threadIdx.x;  
    data[idx] = idx; // 简单的内核操作,将索引值赋给数组元素  
}  
  
int main() {  
    const int arraySize = 1024;  
    int *h_data = (int *)malloc(arraySize * sizeof(int)); // 分配host内存  
    int *d_data;  
  
    // 分配device内存  
    cudaMalloc((void **)&d_data, arraySize * sizeof(int));  
  
    // 初始化host数据  
    for (int i = 0; i < arraySize; i++) {  
        h_data[i] = 0;  
    }  
  
    // 将数据从host传输到device  
    cudaMemcpy(d_data, h_data, arraySize * sizeof(int), cudaMemcpyHostToDevice);  
  
    // 启动CUDA内核  
    dim3 blockSize(256);  
    dim3 gridSize((arraySize + blockSize.x - 1) / blockSize.x);  
    myKernel<<<gridSize, blockSize>>>(d_data);  
  
    // 将数据从device传输回host  
    cudaMemcpy(h_data, d_data, arraySize * sizeof(int), cudaMemcpyDeviceToHost);  
  
    // 处理host数据(这里只是简单地打印前几个元素)  
    for (int i = 0; i < 10; i++) {  
        printf("%d ", h_data[i]);  
    }  
    printf("\n");  
  
    // 释放内存  
    free(h_data);  
    cudaFree(d_data);  
  
    return 0;  
}

在这个示例中,我们首先分配了host和device内存,然后将数据从host传输到device,启动了一个简单的CUDA内核来操作数据,最后将数据从device传输回host并打印出来。这个示例展示了CUDA中数据传输的基本流程。

综上所述,CUDA中的host与device数据传输是一个复杂而重要的环节。通过合理的数据传输方式和优化策略,可以显著提高CUDA程序的性能。

 五、CUDA内存分配

CUDA内存分配是CUDA编程中的一个重要环节,它涉及到在GPU上为数据分配空间。以下是对CUDA内存分配的详细解析:

1、CUDA内存类型

CUDA支持多种内存类型,每种类型具有不同的访问特性和用途:

  1. 全局内存(Global Memory):这是最大的内存空间,所有线程都可以访问。然而,由于其访问速度相对较慢,因此通常用于存储需要在多个线程或线程块之间共享的大量数据。

  2. 共享内存(Shared Memory):这是每个线程块内的线程可以共享的内存空间,访问速度非常快。但由于容量有限,因此通常用于存储需要在线程块内频繁访问的小量数据。

  3. 常量内存(Constant Memory):这是只读内存,所有线程都可以访问,并且访问速度也较快。它通常用于存储常量数据或参数。

  4. 本地内存(Local Memory):这是每个线程的私有内存空间,通常用于存储线程内的局部变量。然而,由于其访问速度较慢,因此应尽量避免使用。

  5. 寄存器(Registers):这是每个线程的私有寄存器空间,访问速度最快。寄存器通常用于存储线程内的临时变量和计算结果。

2、CUDA内存分配函数

CUDA提供了一系列函数用于在GPU上分配内存:

  1. cudaMalloc:用于在GPU上分配全局内存。其函数原型为cudaMalloc(void** devPtr, size_t size),其中devPtr是指向分配的内存空间的指针的指针,size是要分配的内存大小(以字节为单位)。

  2. cudaMallocPitch:用于在GPU上分配二维全局内存,并考虑内存对齐。其函数原型为cudaMallocPitch(void** devPtr, size_t* pitch, size_t widthInBytes, size_t height),其中devPtr是指向分配的内存空间的指针的指针,pitch是返回的行宽(以字节为单位),widthInBytes是每行的字节数,height是矩阵的行数。

  3. cudaMalloc3D:用于在GPU上分配三维全局内存。

  4. cudaFree:用于释放之前分配的内存。其函数原型为cudaFree(void* devPtr),其中devPtr是指向要释放的内存空间的指针。

3、内存分配示例

以下是一个简单的CUDA内存分配示例:

int main()
{
    const int arraySize = 64;
    const int byteSize = arraySize * sizeof(int);

    int *h_input,*d_input;
    h_input = (int*)malloc(byteSize);
    // 在GPU上分配全局内存 
    cudaMalloc((void **)&d_input,byteSize);
    // 检查内存分配是否成功  
    if (cudaGetLastError() != cudaSuccess) {  
        std::cerr << "Failed to allocate device memory" << std::endl;  
        return -1;  
    }  

    srand((unsigned)time(NULL));
    for (int i = 0; i < 64; ++i)
    {
        if(h_input[i] != NULL)h_input[i] = (int)rand()& 0xff;
    }

    cudaMemcpy(d_input, h_input, byteSize, cudaMemcpyHostToDevice);

    int nx = 4, ny = 4, nz = 4;
    dim3 block(2, 2, 2);
    dim3 grid(nx/2, ny/2, nz/2);
    print_array << < grid, block >> > (d_input);
    cudaDeviceSynchronize();

    cudaFree(d_input);
    free(h_input);

    return 0;
}

4、注意事项

  1. 内存对齐:在分配二维或三维全局内存时,需要考虑内存对齐以提高访问效率。CUDA提供了cudaMallocPitch函数来处理二维内存的对齐问题。

  2. 内存释放:在CUDA编程中,必须确保在不再需要时使用cudaFree函数释放之前分配的内存,以避免内存泄漏。

  3. 错误检查:在进行内存分配和其他CUDA操作时,应始终检查返回的错误代码以确保操作成功。

综上所述,CUDA内存分配是CUDA编程中的一个关键步骤。通过合理地分配和管理内存,可以显著提高CUDA程序的性能和稳定性。

 六、CUDA错误处理

CUDA错误处理是确保CUDA程序正确运行和调试的关键步骤。CUDA API函数通常会返回一个错误代码,以指示操作是否成功。在CUDA编程中,检查这些错误代码并及时处理潜在的错误是非常重要的。

1、CUDA错误代码

CUDA API函数返回的错误代码通常是一个cudaError_t类型的值。常见的CUDA错误代码包括:

  • cudaSuccess:操作成功,没有错误。

  • cudaErrorMemoryAllocation:内存分配失败。

  • cudaErrorInitializationError:初始化CUDA时出错。

  • cudaErrorInvalidValue:传递给函数的参数无效。

  • cudaErrorInvalidDevice:指定的设备无效。

  • cudaErrorInvalidDevicePointer:传递给设备的指针无效。

  • cudaErrorLaunchFailure:内核启动失败,这通常是由于内核中的错误(如非法内存访问)导致的。

  • cudaErrorLaunchOutOfResources:由于资源不足(如寄存器不足),无法启动内核。

  • cudaErrorLaunchTimeout:内核启动超时。

2、错误处理策略

  1. 检查每个CUDA API调用
    在调用CUDA API函数后,立即检查其返回的错误代码。这可以通过将函数返回值与cudaSuccess进行比较来实现。

  2. 使用宏简化错误检查
    为了简化代码,可以定义一个宏来执行错误检查。这个宏可以打印错误消息、设置错误标志或执行其他适当的错误处理操作。

  3. 使用cudaGetLastErrorcudaPeekAtLastError
    这些函数可以在不立即返回的情况下获取最近的CUDA错误代码。cudaGetLastError会清除错误状态,而cudaPeekAtLastError则不会。

  4. 在关键路径上添加错误检查
    在性能敏感的应用程序中,可能无法在每个CUDA API调用后都进行错误检查。在这种情况下,应该在关键路径上添加错误检查,以确保在出现问题时能够捕获并处理。

  5. 处理特定错误
    对于某些错误(如cudaErrorMemoryAllocation),可以采取特定的恢复措施,如释放一些内存或尝试重新分配。

  6. 使用cudaDeviceSynchronize
    在某些情况下,需要等待之前提交的所有CUDA操作完成,以便能够捕获所有相关的错误。这可以通过调用cudaDeviceSynchronize来实现。但是,请注意,这可能会引入额外的延迟,并影响性能。

3、错误处理示例

以下是一个简单的CUDA错误处理示例,它定义了一个宏来检查CUDA API调用的返回值,并在出现错误时打印错误消息:

#include <cuda_runtime.h>  
#include <iostream>  
  
// 定义错误检查宏  
#define CUDA_CHECK_ERROR(call) \  
{ \  
    cudaError_t err = call; \  
    if (err != cudaSuccess) \  
    { \  
        std::cerr << "CUDA error in file '" << __FILE__ << "' in line " << __LINE__ << ": " << cudaGetErrorString(err) << std::endl; \  
        exit(EXIT_FAILURE); \  
    } \  
}  
  
int main() {  
    int *dev_data;  
    size_t size = 1024 * sizeof(int);  
  
    // 使用宏检查内存分配是否成功  
    CUDA_CHECK_ERROR(cudaMalloc((void**)&dev_data, size));  
  
    // ... 在这里可以进行其他CUDA操作  
  
    // 释放内存,并使用宏检查是否成功  
    CUDA_CHECK_ERROR(cudaFree(dev_data));  
  
    return 0;  
}

在这个示例中,我们定义了一个名为CUDA_CHECK_ERROR的宏,它接受一个CUDA API调用作为参数,并检查该调用的返回值。如果返回值不是cudaSuccess,则打印错误消息并退出程序。这样,我们可以确保在出现问题时能够立即捕获并处理错误。 

参考:

  1. CUDA学习笔记-1: CUDA编程概览icon-default.png?t=O83Ahttps://blog.51cto.com/u_15127588/4711424
  2. CUDA软件架构—网格(Grid)、线程块(Block)和线程(Thread)的组织关系以及线程索引的计算公式​​​​​​​
  3. 理解CUDA中的thread,block,grid和warp​​​​​​​

标签:编程,blockDim,int,CUDA,深入浅出,线程,内存,GPU,cuda
From: https://blog.csdn.net/a8039974/article/details/142935082

相关文章

  • 基于rp-pico 设计的MakeCode arcade 图形编程游戏机
            前段时间用rp-pico做了一个 MakeCodearcade感觉用起来还不错,关键是很便宜,如果有编程经验的家长也想给小孩一个编程游戏机可以做一个试试,当然自己玩也挺不错的,下面是硬件的地址,我也不是很会画板,比较水,凑合能用,可以自己再改改,按页面的介绍烧录。rp2040_arca......
  • 【编程入门】BMI.exe
    #include<bits/stdc++.h>usingnamespacestd;intmain(){   doubleh,w,b;   cin>>h>>w;   h/=100;   b=w/(h*h);   if(b>24)   {      cout<<"Toofat!"<<endl;      doublew24=......
  • 网络编程
    第九章——网络编程1、网络编程概述计算机网络:是指将地理位置不同的具有独立功能的多台计算机及其外部设备,通过通信线路连接起来,在网络操作系统,网络管理软件及网络通信协议的管理和协调下,实现资源共享和信息传递的计算机系统。极域网络编程:就是用来实现网络互连的不同计算......
  • java_day19_线程组、线程池、定时器、InetAddress、网络编程、设计模式
    一、线程组:线程组:将属于同一类的线程划分到同一组中,可以直接对线程组进行设置。ThreadGroup构造方法:ThreadGroup(Stringname)构造一个新的线程组。代码案例:classMyThread1extendsThread{publicMyThread1(){}publicMyThread1(ThreadGr......
  • 网路编程
    UDP将数据源和目的封装成数据包中,不需要建立连接;每个数据报包的大小在限制在64k;因无连接,是不可靠协议;不需要建立连接,速度快UDP传输发送端思路1:建立udp的socket服务2:将要发送的数据封装成数据包3:通过udp的socket服务,将数据包发送出4:关闭资源点击查看代码publiccl......
  • 5步轻松上手!零基础也能掌握Go语言编程
    你是不是经常听到Go语言(Golang)在技术圈的讨论,却不知道如何开始?Go语言凭借其简洁、高效和并发处理能力,成为越来越多开发者和公司的首选。特别是在高并发场景如微服务、分布式系统中,Go的优势尤为突出。作为一门对初学者友好的语言,即便你没有编程基础,也可以通过以下5个简单步骤......
  • AI编程Arduino单片机点亮WS2812灯带彩虹灯效
    引言随着物联网(IoT)和智能家居的迅速发展,LED灯带因其灵活性和多样的显示效果,广泛应用于装饰、广告、舞台等多个领域。WS2812作为一种智能可控的LED灯带,以其独立控制、丰富的色彩和高亮度,成为众多开发者的首选。而在控制WS2812灯带的过程中,编写高效、稳定的单片机代码至关重要。......
  • XC6SLX25T-2CSG324C,XC6SLX45T-2FGG484I,XC7K70T-3FBG484E4914, XILINX/赛灵思 嵌入式
    Xilinx是一家总部位于美国的半导体公司,成立于1984年。他们的主要产品是可编程逻辑器件(FPGA和SoC)和相关的开发工具。Xilinx的FPGA产品被广泛应用于各种领域,包括通信、数据中心、工业控制、汽车、物联网等。他们的产品具有灵活性高、性能强大和可定制性强等特点。2018年,Xilinx宣......
  • 电子学会代码编程Python等级考试24年9月一级真题和答案解析
    1.下列选项中关于turtle.color('red')语句的作⽤描述正确的是?()A.只设置画笔的颜⾊为红⾊B.只设置填充的颜⾊为红⾊C.设置画笔和填充的颜⾊为红⾊D.设置画笔的颜⾊为红⾊,设置画布背景的颜⾊为红⾊答案解析:C,turtle.color('red')语句会将画笔和填充颜⾊都设......
  • vscode中整合豆包MarsCode编程助手
    豆包MarsCode是字节跳动旗下的一款AI工具,最近在刷帖子时看到已经可以在vscode中通过插件安装MarsCode工具,接下来我们来看下操作流程以及使用效果。第一步:首先需要注册下豆包账号豆包MarsCode--智能编码,一触即发!第二步:打开vscode后,左侧导航栏上点击扩展,搜索MarsCode,找到插件......