C++中OpenMP的使用方法

2024-03-07 02:20
文章标签 c++ 使用 方法 openmp

本文主要是介绍C++中OpenMP的使用方法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

适用场景

OpenMP是一种用于共享内存并行系统的多线程程序设计方案;简单地说,OpenMP通过一种较为简单的使用方式,实现代码的CPU并行化处理,从而最大化利用硬件的多核性能,成倍地提升处理效率;
OpenMP适用场景通常满足以下条件:

  1. 一个代码块被重复调用,且每次耗时较长,或者耗时较短但重复调用次数非常多;
  2. 被重复调用的代码块中,每次处理的数据之间,独立性较强,不存在线程安全问题,或者只有少数需要线程互斥的操作;
  3. 在一个算法中,被重复调用的代码块,是在一个顺序执行的逻辑中的;在引入并行处理提高效率的同时,期望算法逻辑保持简单,不希望引入过多的异步控制;

注意:以上的条件并不是绝对的,实际开发中还是需要根据算法/需求的特性,来衡量OpenMP是否能够有效地提高代码的执行效率,滥用OpenMP有时只会徒增代码的复杂性、降低运行效率;

开启方式

一般情况下,默认的C++编程环境是没有开启OpenMP支持的,需要手动开启;开启之后只需要在使用omp的地方包含头文件即可:

#include <omp.h>

VisualStudio开启方式

打开项目属性页 => 配置属性 => C/C++ => 语言 => OpenMP支持
image.png

QtCreator开启方式

在pro项目文件中加入行:

 QMAKE_CXXFLAGS += /openmp

CMake开启方式

FIND_PACKAGE( OpenMP REQUIRED)
if(OPENMP_FOUND)message("OPENMP FOUND")set(CMAKE_C_FLAGS "${CMAKE_C_FLAGS} ${OpenMP_C_FLAGS}")set(CMAKE_CXX_FLAGS "${CMAKE_CXX_FLAGS} ${OpenMP_CXX_FLAGS}")set(CMAKE_EXE_LINKER_FLAGS"${CMAKE_EXE_LINKER_FLAGS}${OpenMP_EXE_LINKER_FLAGS}")
endif()

OpenMP的指令

概览

OpenMP中的指令有:

  • parallel,用在一个代码段之前,表示这段代码将被多个线程并行执行;
  • for,用于for循环之前,将循环分配到多个线程中并行执行,必须保证每次循环之间无相关性;
  • parallel for, parallel 和 for语句的结合,也是用在一个for循环之前,表示for循环的代码将被多个线程并行执行;
  • sections,用在可能会被并行执行的代码段之前;
  • parallel sections,parallel和sections两个语句的结合;
  • critical,用在一段代码临界区之前;
  • single,用在一段只被单个线程执行的代码段之前,表示后面的代码段将被单线程执行;
  • flush,用于保证各个OpenMP线程的数据影像的一致性;
  • barrier,用于并行区内代码的线程同步,所有线程执行到barrier时要停止,直到所有线程都执行到barrier时才继续往下执行;
  • atomic,用于指定一块内存区域被制动更新;
  • master,用于指定一段代码块由主线程执行;
  • ordered,用于指定并行区域的循环按顺序执行;
  • threadprivate,用于指定一个变量是线程私有的;

常用案例

parallel

parallel指令用于创建并行域,可以和forsections等配合成为复合指令:

#pragma omp parallel [for | sections] [子句]
{// 并行代码
}
// 隐式同步

parallel指令之后的代码块,即为并行运行的代码块,并行代码执行完毕后,会隐式地进行线程同步;其执行次数通常可通过omp_set_num_theads()函数或num_threads字句指定:

#pragma omp parallel num_threads(8)
{// 执行8次printf("ThreadId=%d\n", omp_get_thread_num());
}

for/parallel for

for指令需要与parallel指令配合使用,配合方式有两种;
第一种,与parallel组成复合指令(应用于单个for循环,使用简洁明了):

#pragma omp parallel for
for (int j=0; j<4; ++j) 
{printf("j=%d, Threadid=%d\n", j, omp_get_thread_num());
}
// 隐式同步

第二种,与parallel嵌套使用(可用于单个或多个for循环,使用更加灵活):

#pragma omp parallel
{#pragma omp forfor(int j=0; j<4; ++j){printf("j=%d, Threadid=%d\n", j, omp_get_thread_num());}// 隐式同步
}

注意:for与parallel嵌套使用时,如果parallel指令中有多个for指令,会在完成第一个for指令后进行同步,然后执行第二个for指令后进行同步,如此类推,直到执行完成最后一个for指令;

另外,需要注意的是,for/parallel for指令对for循环的格式是有要求的,且在指令执行时,for循环的次数必须是固定且已知的:

std::vector<int> num_vector = { 0, 1, 3, 2, 5, 9, 4, 6 };// 正确
#pragma omp parallel for
for(int i=0; i<num_vector.size(); ++i) 
{printf("i=%d, num=%d\n", i, num_vector.at(i));
}// 错误
#pragma omp parallel for
for(auto num : num_vector)
{printf("num=%d\n", num);
}// 错误
#pragma omp parallel for
for(auto iter=num_vector.begin(); iter!=num_vector.end(); ++iter)
{printf("num=%d\n", *iter);
}

cirtical/atomic

critical用于执行并行代码中的互斥操作,也即相当于加锁操作:

int max_x = -1;
int max_y = -1;
#pragma omp parallel for
for(int i=0; i<n; ++i)
{#pragma omp criticalif (arx[i] > max_x){max_x = arx[i];}#pragma omp criticalif (ary[i] > max_y){max_y = ary[i];}
}

atomic跟critical类似,但如指令名,主要用于原子操作(+、-、*、/、&、^、<<、>>):

#pragma omp parallel
{for(int i=0; i<10000; ++i){#pragma omp atomic // 原子操作++counter;}
}

barrier

barrier指令也是用于代码同步,但有别于critical、atomic等用于多线程之间的互斥操作,barrier用于所有并行线程的强制同步,可以说是设置显式同步点(相对于OpenMP的隐式同步点,作用一样)的指令:

#pragma omp parallel
{Initialization();#pragma omp barrier // 显式同步点,等待所有线程完成Initialization()后, 继续执行后续代码Process();
}

OpenMP的函数库

概览

OpenMP中常用的函数有:

  • omp_get_num_procs,返回运行本线程的多处理机的处理器个数;
  • omp_get_num_threads,返回当前并行区域中的活动线程个数;
  • omp_get_thread_num,返回线程号;
  • omp_set_num_threads,设置并行执行代码时的线程个数;
  • omp_init_lock,初始化一个简单锁;
  • omp_set_lock,上锁操作;
  • omp_unset_lock,解锁操作,要和omp_set_lock函数配对使用;
  • omp_destroy_lockomp_init_lock函数的配对操作函数,关闭一个锁;

常用案例

omp_get_num_procs

omp_get_num_procs函数可以获取到当前机器的CPU数量(核数,或CPU的超线程数量);通常,如果算法中对于并行数量没有明确限制要求,可以通过该函数的返回值作为参考值,设置并行数量:

#pragma omp parallel for num_threads(omp_get_num_procs())
for(int i=0; i<10000; ++i)
{// 并行代码
}

omp_get_thread_num/omp_set_num_threads/omp_get_num_threads

omp_set_num_threads和omp_get_num_threads是设置和获取并行线程数量的一对接口,而omp_get_thread_num可以在并行代码之中获取当前线程号:

// 设置并行线程数量为4
omp_set_num_threads(4);#pragma omp parallel
{// 获取并打印线程ID(0/1/2/3)int tid = omp_get_thread_num();printf("Hello Word from OMP thread %d\n",tid);// 只有第一个线程执行if(tid == 0){// 获取当前的并行线程数量(此处固定为4)int nthreads = omp_get_num_threads();printf("Number of thread: %d\n",nthreads);}
}

omp_init_lock/omp_set_lock/omp_unset_lock/omp_destroy_lock

omp_init_lock与omp_destroy_lock是用于初始化锁/关闭锁的一对函数,omp_set_lock与omp_unset_lock是用于上锁/解锁的一对函数,对应的互斥锁类型为omp_lock_t

static omp_lock_t lock;
omp_init_lock(&lock);
#pragma omp parallel for
for(int i=0; i<5; ++i)
{omp_set_lock(&lock);printf("%d +\n", omp_get_thread_num());printf("%d -\n", omp_get_thread_num());omp_unset_lock(&lock);
}
omp_destroy_lock(&lock);

OpenMP的子句

概览

OpenMP中的子句有:

  • private, 指定每个线程都有它自己的变量私有副本;
  • firstprivate,指定每个线程都有它自己的变量私有副本,并且变量要被继承主线程中的初值;
  • lastprivate,主要是用来指定将线程中的私有变量的值在并行处理结束后复制回主线程中的对应变量;
  • reduction,用来指定一个或多个变量是私有的,并且在并行处理结束后这些变量要执行指定的运算;
  • nowait,忽略指定中暗含的等待;
  • num_threads,指定线程的个数;
  • schedule,指定如何调度for循环迭代;
  • shared,指定一个或多个变量为多个线程间的共享变量;
  • ordered,用来指定for循环的执行要按顺序执行;
  • copyprivate,用于single指令中的指定变量为多个线程的共享变量;
  • copyin,用来指定一个threadprivate的变量的值要用主线程的值进行初始化;
  • default,用来指定并行处理区域内的变量的使用方式,缺省是shared

常用案例:

private

OpenMP各个线程的变量是共享还是私有,是依据OpenMP自身的规则和相关的数据子句而定,而不是依据操作系统线程或进程上的变量特性而定;其中private(list)子句,可用来将一个或多个变量声明成线程私有的变量,变量声明成私有变量后,指定每个线程都有它自己的变量私有副本,其他线程无法访问私有副本;即使在并行域外有同名的共享变量,共享变量在并行域内不起任何作用,并且并行域内不会操作到外面的共享变量;

int k = 100;
#pragma omp parallel for private(k)
for (k=0; k<8; ++k)
{printf("k=%d\n", k);  // 0-7
}
printf("last k=%d\n", k); // 100

num_threads

num_threads可以用于指定一块并行代码的线程数量:

#pragma omp parallel for num_threads(8)
for(int i=0; i<10000; ++i)
{// 并行代码
}

schedule

适用场景

假如在一个parallel并行域中有多个for制导指令,在该并行域内的多个线程首先完成第一个for语句的任务分担,然后在此进行一次同步(for制导指令本身隐含有结束处的路障同步),然后再进行第二个for语句的任务分担,直到退出并行域并只剩下一个主线程为止;对于for循环的并行计算,如果仅仅像上面这种方式进行任务分配,假如循环变量不同时计算量不同,那么这样的分配是不合理的。
对于这种情况,我们可以使用schedule子句来解决。

子句格式

schedule子句的格式是schedule(type [,size])。type的类型有static、dynamic、guided三种调度方式,此外还可以是runtime,但runtime是根据环境变量OMP_SCHEDULED来选择前三种中的某种类型,相应的内部控制变量ICV是run-sched-var。size是可选的,默认为平均分配。size参数必须是整数,表示以循环迭代次数计算的划分单位,每个线程所承担的计算任务对应于0个或若干个size次循环。需要注意的是,当type参数类型为runtime时,size参数是非法的。

type:static

当for或者parallel for编译制导指令没有带schedule子句时,大部分系统中默认采用size为1的static调度方式。假设有n次循环迭代,t个线程,那么给每个线程静态分配大约n/t次迭代计算,当然不要钻什么除不尽这样的牛角尖,线程分配到的迭代次数相差一次就行了。如果指定了size,则可能相差更大。对两个线程,以schedule(static)为例,以for循环10次为例,它们将分别得到5次;再以schedule(static,2)为例,0、1次迭代分配给0号线程,2、3次迭代分配给1号线程,4、5次迭代分配给0号线程,6、7次迭代分配给1号线程,…

type:dynamic

schedule(dynamic)是按情况每size次迭代进行分配,各线程动态地申请任务,因此较快的线程可能申请更多次数,而较慢的线程申请任务次数可能较少,因此动态调度可以在一定程度上避免前面提到的按循环次数划分引起的负载不平衡问题。默认size为1,类似于static的情况,容易想到size被指定后的情形,就不再赘述。

type:guided

这是一种采用指导性的启发式自调度方法。开始时每个线程会分配到较大的迭代块,之后分配到的迭代块会逐渐递减。迭代块的大小会按指数级下降到指定的size大小,如果没有指定size参数,那么迭代块大小最小会降到1。下面举个例子,其中第0、1、2、3、4次迭代被分配给线程0,第5、6、7次迭代被分配给线程1,第8、9次迭代被分配给线程0,分配的迭代次数呈递减趋势,最后一次递减到2次;

#pragma omp parallel for schedule(guided,2)
for (j=0; j<10; ++j) 
{printf("j=%d, Threadid=%d\n", j, omp_get_thread_num());
}
/* 可能的打印结果:
i=0, thread_id=0
i=1, thread_id=0
i=2, thread_id=0
i=3, thread_id=0
i=4, thread_id=0 
i=8, thread_id=0
i=9, thread_id=0
i=5, thread_id=1
i=6, thread_id=1
i=7, thread_id=1 */

default

default(shared | none)子句,用来允许用户控制并行区域中变量的共享属性。使用shared时,缺省情况下,传入并行区域内的同名变量被当作共享变量来处理,不会产生线程私有副本,除非使用private等子句来指定某些变量为私有的才会产生副本。如果使用none作为参数,除了那些由明确定义的除外,线程中用到的变量都必须显式指定为是共享的还是私有的;

这篇关于C++中OpenMP的使用方法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/782131

相关文章

C# 比较两个list 之间元素差异的常用方法

《C#比较两个list之间元素差异的常用方法》:本文主要介绍C#比较两个list之间元素差异,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下吧... 目录1. 使用Except方法2. 使用Except的逆操作3. 使用LINQ的Join,GroupJoin

Linux中压缩、网络传输与系统监控工具的使用完整指南

《Linux中压缩、网络传输与系统监控工具的使用完整指南》在Linux系统管理中,压缩与传输工具是数据备份和远程协作的桥梁,而系统监控工具则是保障服务器稳定运行的眼睛,下面小编就来和大家详细介绍一下它... 目录引言一、压缩与解压:数据存储与传输的优化核心1. zip/unzip:通用压缩格式的便捷操作2.

MySQL查询JSON数组字段包含特定字符串的方法

《MySQL查询JSON数组字段包含特定字符串的方法》在MySQL数据库中,当某个字段存储的是JSON数组,需要查询数组中包含特定字符串的记录时传统的LIKE语句无法直接使用,下面小编就为大家介绍两种... 目录问题背景解决方案对比1. 精确匹配方案(推荐)2. 模糊匹配方案参数化查询示例使用场景建议性能优

关于集合与数组转换实现方法

《关于集合与数组转换实现方法》:本文主要介绍关于集合与数组转换实现方法,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录1、Arrays.asList()1.1、方法作用1.2、内部实现1.3、修改元素的影响1.4、注意事项2、list.toArray()2.1、方

使用Python实现可恢复式多线程下载器

《使用Python实现可恢复式多线程下载器》在数字时代,大文件下载已成为日常操作,本文将手把手教你用Python打造专业级下载器,实现断点续传,多线程加速,速度限制等功能,感兴趣的小伙伴可以了解下... 目录一、智能续传:从崩溃边缘抢救进度二、多线程加速:榨干网络带宽三、速度控制:做网络的好邻居四、终端交互

Python中注释使用方法举例详解

《Python中注释使用方法举例详解》在Python编程语言中注释是必不可少的一部分,它有助于提高代码的可读性和维护性,:本文主要介绍Python中注释使用方法的相关资料,需要的朋友可以参考下... 目录一、前言二、什么是注释?示例:三、单行注释语法:以 China编程# 开头,后面的内容为注释内容示例:示例:四

从入门到精通C++11 <chrono> 库特性

《从入门到精通C++11<chrono>库特性》chrono库是C++11中一个非常强大和实用的库,它为时间处理提供了丰富的功能和类型安全的接口,通过本文的介绍,我们了解了chrono库的基本概念... 目录一、引言1.1 为什么需要<chrono>库1.2<chrono>库的基本概念二、时间段(Durat

C++20管道运算符的实现示例

《C++20管道运算符的实现示例》本文简要介绍C++20管道运算符的使用与实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧... 目录标准库的管道运算符使用自己实现类似的管道运算符我们不打算介绍太多,因为它实际属于c++20最为重要的

一文详解Git中分支本地和远程删除的方法

《一文详解Git中分支本地和远程删除的方法》在使用Git进行版本控制的过程中,我们会创建多个分支来进行不同功能的开发,这就容易涉及到如何正确地删除本地分支和远程分支,下面我们就来看看相关的实现方法吧... 目录技术背景实现步骤删除本地分支删除远程www.chinasem.cn分支同步删除信息到其他机器示例步骤

Visual Studio 2022 编译C++20代码的图文步骤

《VisualStudio2022编译C++20代码的图文步骤》在VisualStudio中启用C++20import功能,需设置语言标准为ISOC++20,开启扫描源查找模块依赖及实验性标... 默认创建Visual Studio桌面控制台项目代码包含C++20的import方法。右键项目的属性: