代码在git
什么是OpenMP
Open Multi-Processing的缩写,是一个应用程序接口(API),可用于显式指导多线程、共享内存的并行性。
在项目程序已经完成好的情况下不需要大幅度的修改源代码,只需要加上专用的pragma来指明自己的意图,由此编译器可以自动将程序进行并行化,并在必要之处加入同步互斥以及通信。当选择忽略这些pragma,或者编译器不支持OpenMp时,程序又可退化为通常的程序(一般为串行),代码仍然可以正常运作,只是不能利用多线程来加速程序执行。OpenMP提供的这种对于并行描述的高层抽象降低了并行编程的难度和复杂度,这样程序员可以把更多的精力投入到并行算法本身,而非其具体实现细节。对基于数据分集的多线程程序设计,OpenMP是一个很好的选择。
OpenMP支持的语言包括C/C++、Fortran;而支持OpenMP的编译器VS、gcc、clang等都行。可移植性也很好:Unix/Linux和Windows
OpenMP编程模型
内存共享模型:OpenMP是专为多处理器/核,共享内存机器所设计的。底层架构可以是UMA和NUMA。即(Uniform Memory Access和Non-Uniform Memory Access)
- OpenMP仅通过线程来完成并行
- 一个线程的运行是可由操作系统调用的最小处理单
- 线程们存在于单个进程的资源中,没有了这个进程,线程也不存在了
- 通常,线程数与机器的处理器/核数相匹配,然而,实际使用取决与应用程序
明确的并行
- OpenMP是一种显式(非自动)编程模型,为程序员提供对并行化的完全控制
- 一方面,并行化可像执行串行程序和插入编译指令那样简单
- 另一方面,像插入子程序来设置多级并行、锁、甚至嵌套锁一样复杂
Fork-Join模型
- OpenMP就是采用Fork-Join模型
- 所有的OpenML程序都以一个单个进程——master thread开始,master threads按顺序执行知道遇到第一个并行区域
- Fork:主线程创造一个并行线程组
- Join:当线程组完成并行区域的语句时,它们同步、终止,仅留下主线程
数据范围
- 由于OpenMP时是共享内存模型,默认情况下,在共享区域的大部分数据是被共享的
- 并行区域中的所有线程可以同时访问这个共享的数据
- 如果不需要默认的共享作用域,OpenMP为程序员提供一种“显示”指定数据作用域的方法
嵌套并行
- API提供在其它并行区域放置并行区域
- 实际实现也可能不支持
简单使用
具体的:新建一个C/C++程序,注意一定要加上<omp.h>头文件。
写一个并行的Hello World
#include <omp.h>
#include <stdio.h>
#include <stdlib.h>
int main()
{
int nthreads, tid;
/* Fork a team of threads giving them their own copies of variables */
#pragma omp parallel private(nthreads, tid)
{
/* Obtain thread number */
tid = omp_get_thread_num();
printf("Hello World from thread = %d\n", tid);
/* Only master thread does this */
if (tid == 0)
{
nthreads = omp_get_num_threads();
printf("Number of threads = %d\n", nthreads);
}
} /* All threads join master thread and disband */
return 0;
}
也可以直接使用gcc加上-fopenmp编译,For example:
g++ test.cpp -o test -fopenmp
./test
gcc test.cpp -o test -fopenmp -lstdc++