C/C++实现高性能并行计算——1.pthreads并行编程(中)

2024-04-28 00:44

本文主要是介绍C/C++实现高性能并行计算——1.pthreads并行编程(中),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

系列文章目录

  1. pthreads并行编程(上)
  2. pthreads并行编程(中)
  3. pthreads并行编程(下)
  4. 使用OpenMP进行共享内存编程

文章目录

  • 系列文章目录
  • 前言
  • 一、临界区
    • 1.1 `pi`值估计的例子
    • 1.2 找到问题
      • 竞争条件
      • 临界区
  • 二、忙等待
  • 三、互斥量
    • 3.1 定义和初始化互斥锁
    • 3.2 销毁。
    • 3.3 获得临界区的访问权(上锁)
    • 3.4 退出临界区(解锁)
      • 3.5 小节
    • 3.6 改进`pi`值估计的例子
  • 四、忙等待 vs 互斥量
  • 总结
  • 参考


前言

在C++实现高性能并行计算——1.pthreads并行编程(上)一文中介绍了pthreads的基本编程框架,但是不是随便什么程序都像上一文中轻松多线程编程,会遇到许多问题,涉及到许多底层逻辑。本篇文章就是在讲其底层逻辑。


一、临界区

1.1 pi值估计的例子

在这里插入图片描述
并行化该例子:

// pth_pi_wrong.c
#include <stdlib.h>
#include <stdio.h>
#include <pthread.h>#define n 100000000int num_thread;
double sum = 0;void* thread_sum(void* rank);int main(int argc, char* argv[]){long thread;pthread_t* thread_handles;double pi;num_thread = strtol(argv[1], NULL, 10);thread_handles = (pthread_t *)malloc(num_thread * sizeof(pthread_t *));for (thread = 0; thread < num_thread; thread++){pthread_create(&thread_handles[thread], NULL, thread_sum, (void *)thread);}for (thread = 0; thread < num_thread; thread++){pthread_join(thread_handles[thread], NULL);}pi = 4 *sum;printf("Result is %lf\n", pi);free(thread_handles);return 0;
}void* thread_sum(void *rank){long my_rank = (long)rank;double factor;long long i;long long my_n = n / num_thread; //每个线程所要计算的个数,这里理想情况,可以被整除long long my_first_i = my_n * my_rank;long long my_last_i = my_first_i + my_n;if (my_first_i % 2 == 0){factor = 1.0;}else{factor = -1.0;}for (i = my_first_i; i < my_last_i; i++, factor = -factor){sum += factor / (2 * i + 1);}return NULL;
}

运行结果:
在这里插入图片描述在这里插入图片描述

1.2 找到问题

在这里插入图片描述

竞争条件

当多个线程都要访问共享变量或共享文件这样的共享资源时,如果至少其中一个访问是更新操作,那么这些访问就可能会导致某种错误,称之为竞争条件。

临界区

临界区就是一个更新共享资源的代码段,一次只允许一个线程执行该代码段。


二、忙等待

如何进行更新操作,又要保证结果的正确性?——忙等待
使用标志变量flag,主线程将其初始化为0

y = compute(my_rank);
while (flag != my_rank); // 忙等待,要一直等待它的flag等于其rank才会执行下面的操作
x += y; //就是临界区
flag++;

在忙等待中,线程不停地测试某个条件,但实际上,直到某个条件满足之前,这些测试都是徒劳的。
缺点:浪费CPU周期,对性能产生极大的影响。


三、互斥量

在这里插入图片描述pthread_mutex_t 是 POSIX 线程(pthreads)库中用于实现互斥锁(Mutex)的数据类型。互斥锁是并行编程中常用的同步机制,用于控制多个线程对共享资源的访问,确保一次只有一个线程可以访问该资源。

3.1 定义和初始化互斥锁

  • 可以静态初始化:pthread_mutex_t mutex = PTHREAD_MUTEX_INITIALIZER;

  • 或动态初始化:使用 pthread_mutex_init() 函数。这个函数提供了一种灵活的方式来设置互斥锁的属性,不同于使用 PTHREAD_MUTEX_INITIALIZER 进行静态初始化。动态初始化允许程序在运行时根据需要创建和配置互斥锁。
    该函数原型:

    int pthread_mutex_init(pthread_mutex_t *mutex,            /*out*/const pthread_mutexattr_t *attr		/*in */);
    
      参数:- mutex:指向 pthread_mutex_t 结构的指针,该结构代表互斥锁。这个互斥锁在调用 pthread_mutex_init() 之前不需要被特别初始化。- attr:指向 pthread_mutexattr_t 结构的指针,该结构用于定义互斥锁的属性。如果传入 NULL,则使用默认属性。返回值:- 成功:函数返回 0。- 失败:返回一个错误码,表示初始化失败的原因。常见的错误码包括:- EINVAL:提供了无效的属性。- ENOMEM:没有足够的内存来初始化互斥锁。
    

3.2 销毁。

使用 pthread_mutex_destroy() 函数销毁互斥锁,释放任何相关资源。这通常在互斥锁不再需要时进行。
该函数原型是

int pthread_mutex_destroy(pthread_mutex_t *mutex);

3.3 获得临界区的访问权(上锁)

使用 pthread_mutex_lock() 函数来锁定互斥锁。如果互斥锁已被其他线程锁定,调用线程将阻塞,直到互斥锁被解锁。
该函数原型:

int pthread_mutex_lock(pthread_mutex_t *mutex);

参数

  • mutex:指向已初始化的 pthread_mutex_t 结构的指针,表示要锁定的互斥锁。

返回值

  • 成功:如果函数成功锁定互斥锁,它返回 0。
  • 失败:返回一个错误码,表明为什么锁定失败。常见的错误码包括:
    • EINVAL:如果互斥锁未正确初始化,会返回此错误。
    • EDEADLK:如果是错误检查互斥锁,并且当前线程已经锁定了这个互斥锁,会返回此错误,指示死锁风险。

3.4 退出临界区(解锁)

使用 pthread_mutex_unlock() 函数来解锁互斥锁,允许其他正在等待的线程获得资源访问权限。
该函数原型:

int phtread_mutex_unloc(pthread_mutex_t* mutex_p);

参数

  • mutex:指向需要解锁的 pthread_mutex_t 结构的指针。该互斥锁应该是先前由调用线程使用 pthread_mutex_lock() 锁定的。

返回值

  • 0:函数成功解锁了互斥锁。
  • 失败:返回一个错误码,表明为什么锁定失败。常见的错误码包括:
    • EINVAL:如果互斥锁没有被正确初始化,或者互斥锁指针无效,将返回此错误。
    • EPERM:如果当前线程不持有该互斥锁的锁定权,即尝试解锁一个它并没有锁定或者根本未被锁定的互斥锁,将返回此错误。

3.5 小节

pthread_mutex_t 是 POSIX 线程(pthreads)库中用于实现互斥锁(Mutex)的数据类型。互斥锁是并行编程中常用的同步机制,用于控制多个线程对共享资源的访问,确保一次只有一个线程可以访问该资源。

互斥锁的基本概念

  • 互斥:互斥锁保证当一个线程访问共享资源时,其他线程必须等待,直到该资源被释放(解锁),从而防止数据冲突和不一致性。
  • 死锁:如果不正确使用互斥锁,可能导致死锁,即两个或多个线程相互等待对方释放资源,结果都无法继续执行。

使用 pthread_mutex_t 类型的互斥锁通常包括以下几个步骤:

  1. 定义和初始化互斥锁
  2. 锁定互斥锁
  3. 访问共享资源
  4. 解锁互斥锁
  5. 销毁互斥锁

下面是使用 pthread_mutex_t 的简单示例:

#include <pthread.h>
#include <stdio.h>pthread_mutex_t lock;  //拿到pthread_mutex_t类型的对象lock,它这里还是个全局变量
int counter = 0;void* increment_counter(void* arg) {pthread_mutex_lock(&lock);   // 锁定互斥锁int i = *((int*) arg);counter += i;                // 修改共享资源printf("Counter value: %d\n", counter);pthread_mutex_unlock(&lock); // 解锁互斥锁return NULL;
}int main() {pthread_t t1, t2;pthread_mutex_init(&lock, NULL); // 初始化互斥锁int increment1 = 1;int increment2 = 2;pthread_create(&t1, NULL, increment_counter, &increment1);pthread_create(&t2, NULL, increment_counter, &increment2);pthread_join(t1, NULL);pthread_join(t2, NULL);pthread_mutex_destroy(&lock); // 销毁互斥锁printf("Final Counter value: %d\n", counter);return 0;
}

注意事项

  • 避免死锁:确保每个锁定的互斥锁最终都会被解锁,特别是在可能引发异常或提前返回的代码段之前。
  • 适当的锁粒度:选择正确的锁粒度很重要。过粗的锁可能导致性能低下,而过细的锁可能增加复杂性和死锁的风险。

互斥锁是保护共享数据和防止并发错误的关键工具,在设计多线程程序时需要仔细管理。

3.6 改进pi值估计的例子

主要是改进线程函数里面访问全局变量的那段代码(也就是临界区)

void* thread_sum(void *rank){long my_rank = (long)rank;double factor;long long i;long long my_n = n / num_thread; //每个线程所要计算的个数,这里理想情况,可以被整除long long my_first_i = my_n * my_rank;long long my_last_i = my_first_i + my_n;//这里定义my_sum是因为不想频繁调用互斥锁的访问临界区的权限(for循环里),所以只在最后将my_sum赋给sum的时候调用访问权限和退出权限double my_sum;  if (my_first_i % 2 == 0){factor = 1.0;}else{factor = -1.0;}for (i = my_first_i; i < my_last_i; i++, factor = -factor){my_sum += factor / (2 * i + 1);}pthread_mutex_lock(&mutex);sum += my_sum;pthread_mutex_unlock(&mutex);//在一个线程函数中只调用一次申请锁和释放锁的条件return NULL;
}

主函数:

#include <stdlib.h>
#include <stdio.h>
#include <pthread.h>#define n 100000000pthread_mutex_t mutex;int num_thread;
double sum = 0;void* thread_sum(void* rank);int main(int argc, char* argv[]){long thread;pthread_t* thread_handles;double pi;num_thread = strtol(argv[1], NULL, 10);thread_handles = (pthread_t *)malloc(num_thread * sizeof(pthread_t *));//初始化互斥锁pthread_mutex_init(&mutex, NULL);for (thread = 0; thread < num_thread; thread++){pthread_create(&thread_handles[thread], NULL, thread_sum, (void *)thread);}for (thread = 0; thread < num_thread; thread++){pthread_join(thread_handles[thread], NULL);}pi = 4 *sum;printf("Result is %lf\n", pi);free(thread_handles);pthread_mutex_destroy(&mutex);return 0;
}

运行结果:
在这里插入图片描述


四、忙等待 vs 互斥量

在这里插入图片描述


总结

  1. 发现问题:线程之间会产生竞争条件

  2. 解决思路:临界区:在更新共享资源的代码段处,一次只允许一个线程执行该代码段。但是如何使得该区域每次只能有一个线程访问(如何使得该区域成为临界区

  3. 解决方法:

    • 忙等待:使用标志变量flag,在线程函数中,每次要更新共享资源的代码处时设置一个判断flag的条件语句,只有当flag满足特定条件,才能让相应的线程进行更新共享资源。
    • 互斥量/锁:
      • 初始化锁(因为互斥锁是pthread库中的一个数据类型,得要初始化,当然也涉及到销毁)
      • 上锁
      • 访问共享内存
      • 解锁
      • 销毁锁
  4. 忙等待 vs 互斥锁:忙等待因为要频繁地执行判断语句,所以效率低。最好使用互斥锁

  5. 在使用互斥锁的时候也尽量避免频繁上锁,解锁操作,这样会印象性能。尽量每个线程只执行一次(这不是绝对,看具体执行什么操作)

  6. 这里也只是讨论了每个线程执行结果没有逻辑上的先后顺序,就像有理数的乘法交换律一样,不管什么顺序乘,结果都一样。有先后顺序的情况将在下一篇文章讨论,就如同矩阵乘法,顺序很重要!

参考

  1. 【团日活动】C++实现高性能并行计算——⑨pthreads并行编程

这篇关于C/C++实现高性能并行计算——1.pthreads并行编程(中)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/941930

相关文章

C++中unordered_set哈希集合的实现

《C++中unordered_set哈希集合的实现》std::unordered_set是C++标准库中的无序关联容器,基于哈希表实现,具有元素唯一性和无序性特点,本文就来详细的介绍一下unorder... 目录一、概述二、头文件与命名空间三、常用方法与示例1. 构造与析构2. 迭代器与遍历3. 容量相关4

C++中悬垂引用(Dangling Reference) 的实现

《C++中悬垂引用(DanglingReference)的实现》C++中的悬垂引用指引用绑定的对象被销毁后引用仍存在的情况,会导致访问无效内存,下面就来详细的介绍一下产生的原因以及如何避免,感兴趣... 目录悬垂引用的产生原因1. 引用绑定到局部变量,变量超出作用域后销毁2. 引用绑定到动态分配的对象,对象

SpringBoot基于注解实现数据库字段回填的完整方案

《SpringBoot基于注解实现数据库字段回填的完整方案》这篇文章主要为大家详细介绍了SpringBoot如何基于注解实现数据库字段回填的相关方法,文中的示例代码讲解详细,感兴趣的小伙伴可以了解... 目录数据库表pom.XMLRelationFieldRelationFieldMapping基础的一些代

Java HashMap的底层实现原理深度解析

《JavaHashMap的底层实现原理深度解析》HashMap基于数组+链表+红黑树结构,通过哈希算法和扩容机制优化性能,负载因子与树化阈值平衡效率,是Java开发必备的高效数据结构,本文给大家介绍... 目录一、概述:HashMap的宏观结构二、核心数据结构解析1. 数组(桶数组)2. 链表节点(Node

Java AOP面向切面编程的概念和实现方式

《JavaAOP面向切面编程的概念和实现方式》AOP是面向切面编程,通过动态代理将横切关注点(如日志、事务)与核心业务逻辑分离,提升代码复用性和可维护性,本文给大家介绍JavaAOP面向切面编程的概... 目录一、AOP 是什么?二、AOP 的核心概念与实现方式核心概念实现方式三、Spring AOP 的关

Python实现字典转字符串的五种方法

《Python实现字典转字符串的五种方法》本文介绍了在Python中如何将字典数据结构转换为字符串格式的多种方法,首先可以通过内置的str()函数进行简单转换;其次利用ison.dumps()函数能够... 目录1、使用json模块的dumps方法:2、使用str方法:3、使用循环和字符串拼接:4、使用字符

Linux下利用select实现串口数据读取过程

《Linux下利用select实现串口数据读取过程》文章介绍Linux中使用select、poll或epoll实现串口数据读取,通过I/O多路复用机制在数据到达时触发读取,避免持续轮询,示例代码展示设... 目录示例代码(使用select实现)代码解释总结在 linux 系统里,我们可以借助 select、

Linux挂载linux/Windows共享目录实现方式

《Linux挂载linux/Windows共享目录实现方式》:本文主要介绍Linux挂载linux/Windows共享目录实现方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地... 目录文件共享协议linux环境作为服务端(NFS)在服务器端安装 NFS创建要共享的目录修改 NFS 配

通过React实现页面的无限滚动效果

《通过React实现页面的无限滚动效果》今天我们来聊聊无限滚动这个现代Web开发中不可或缺的技术,无论你是刷微博、逛知乎还是看脚本,无限滚动都已经渗透到我们日常的浏览体验中,那么,如何优雅地实现它呢?... 目录1. 早期的解决方案2. 交叉观察者:IntersectionObserver2.1 Inter

Spring Gateway动态路由实现方案

《SpringGateway动态路由实现方案》本文主要介绍了SpringGateway动态路由实现方案,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随... 目录前沿何为路由RouteDefinitionRouteLocator工作流程动态路由实现尾巴前沿S