Python多进程程文件去重

2024-05-04 08:38
文章标签 python 进程

本文主要是介绍Python多进程程文件去重,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

注:本文基于python2.7.5

用完多线程,必然得尝试下多进程咯。

python下多进程一般通过multiprocessing模块实现,和上篇一样,我们还是以图片去重为例。

#-*-  coding: UTF-8  -*-import multiprocessing
from multiprocessing import freeze_support
import os
import sys
import hashlib
import timedef run_process(name, ph, md5, id, lockForPhoto, lockForMD5, lockForIdentical, LockForPrint):LockForPrint.acquire()print("starting: process" + str(name)) LockForPrint.release()lockForPhoto.acquire()while len(ph) > 0:photo = ph.pop()lockForPhoto.release()photomd5 = getmd5(photo)lockForMD5.acquire()if photomd5 not in md5:md5.append(photomd5)lockForMD5.release()else:lockForMD5.release()lockForIdentical.acquire()id.append(photo)lockForIdentical.release()lockForPhoto.acquire()lockForPhoto.release()def getmd5(file):if not os.path.isfile(file):  return  f = open(file,'rb')md5 = hashlib.md5()md5.update(f.read())f.close()return md5.hexdigest()         def getFiles(targetDir):allfiles = multiprocessing.Manager().list()for path,dir,filelist in os.walk(targetDir):for filename in filelist:allfiles.append(os.path.join(path, filename))return allfilesif __name__ == '__main__':#freeze_support()#windows平台下需要增加这个语句,不然可能会出现崩溃dirname = sys.argv[1]if len(sys.argv) == 3:identicalDir = sys.argv[2]else:identicalDir = ""identicalPhotoes = multiprocessing.Manager().list()photoMd5List = multiprocessing.Manager().list()photoes = multiprocessing.Manager().list()lockForPhoto = multiprocessing.Lock()lockForMD5 = multiprocessing.Lock()lockForIdentical = multiprocessing.Lock()LockForPrint = multiprocessing.Lock()processes = []photoes=getFiles(dirname)start = time.time()for i in range(4):process = multiprocessing.Process(target=run_process, args=(i+1, photoes, photoMd5List, identicalPhotoes, lockForPhoto, lockForMD5, lockForIdentical, LockForPrint))process.start()processes.append(process)for process in processes:process.join()end = time.time()last = end - startprint("There are " + str(len(identicalPhotoes)) + " identical photo(es)")if os.path.exists(identicalDir):for i in identicalPhotoes:shutil.move(i, identicalDir)print(i.decode('gbk'))print("main Process exit: lasts for " + str(last) + "s")

功能不变,脚本接收两个入参,一个是需要去重的文件目录(必须),另一个是存放重复文件的目录(可选)。如果没有指定存放重复文件的目录,则不移动重复文件,仅打印重复文件数量。

多进程的实现主要通过multiprocessing模块操作,multiprocessing的Process函数,接收子进程主体函数,以及函数入参用于创建新的进程,之后便进入新进程的代码中运行。

多进程相比于多线程有个不同的地方,应该在代码里也能发现写端倪,就是对于数据的共享。

在线程中,数据共享通过全局变量即可。因为线程没有自己的系统资源,它与其他线程共享系统分配的资源,比如文本区和数据区。而在进程中,每个进程都有自己的数据空间,所有的资源都会从父进程中拷贝一份,因此使用全局变量并不能真正实现全局,因为子进程已经把这个全局变量也拷贝到子进程中,因此全局变量只能称之为进程内全局变量。为了解决进程间的数据共享,我们引入了multiprocessing的Manager()模块。Manager()返回的manager对象控制了一个server进程,此进程包含的python对象可以被其他的进程通过proxies来访问,从而达到多进程间数据通信且安全。Manager支持的类型有list,dict,Namespace,Lock,RLock,Semaphore,BoundedSemaphore,Condition,Event,Queue,Value和Array。

完成了进程间的数据共享,下一步就要考虑进程间数据的同步了。这里同样使用锁来保证数据同步。为每个全局资源定义一个锁,粒度小,这样对资源的占用就不会太久。

最后,在实际去重的时间上来说,多进程并不占优,如下:
在这里插入图片描述
由上可见多进程和多线程相差达到一个数量级,和想象中的不太一样。不过这并不能说明多线程就优于多进程,因为这取决 于你程序的工作性质。由于本次测试数据量小,线程的创建和初始化速度肯定快于进程,因此差距才会比较明显。

其实,如果在数据量大的情况下,两者的差异主要取决于程序是计算密集还是IO密集,多进程因为可以利用多个CPU同时工作,因此对于计算密集型程序表现更好,而多线程则在IO密集的情况下表现更优,因为它可以利用IO阻塞的时间运行其他线程,而不必在那等待。

考虑到有些场景我们不可能手动去限制进程数量,尤其是如果有成百上千个进程时,因此现在我们再考虑使用进程池实现。进程池为用户提供指定数量的进程,当用户提交新的请求时,如果进程池没有满,那么就会创建一个新的进程来执行任务;如果此时进程数量已经达到指定值,就会阻塞,等待某个进程执行完毕再创建新进程执行任务。通过进程池能够很好的限制事务处理的进程数,也就限制了应用占用系统资源的数量。进程池这一功能主要由multiprocessing.Pool模块提供。

#-*-  coding: UTF-8  -*-import multiprocessing
from multiprocessing import freeze_support
import os
import sys
import hashlib
import timedef run_process(name, photo, md5, id, lockForMD5, lockForIdentical, LockForPrint):LockForPrint.acquire()print("starting: process" + str(name)) LockForPrint.release()photomd5 = getmd5(photo)lockForMD5.acquire()if photomd5 not in md5:md5.append(photomd5)lockForMD5.release()else:lockForMD5.release()lockForIdentical.acquire()id.append(photo)lockForIdentical.release()def getmd5(file):if not os.path.isfile(file):  return  f = open(file,'rb')md5 = hashlib.md5()md5.update(f.read())f.close()return md5.hexdigest()         def getFiles(targetDir):allfiles = multiprocessing.Manager().list()for path,dir,filelist in os.walk(targetDir):for filename in filelist:allfiles.append(os.path.join(path, filename))return allfilesif __name__ == '__main__':#freeze_support()#windows平台下需要增加这个语句,不然可能会出现崩溃dirname = sys.argv[1]if len(sys.argv) == 3:identicalDir = sys.argv[2]else:identicalDir = ""identicalPhotoes = multiprocessing.Manager().list()photoMd5List = multiprocessing.Manager().list()photoes = multiprocessing.Manager().list()lockForMD5 = multiprocessing.Manager().Lock()lockForIdentical = multiprocessing.Manager().Lock()LockForPrint = multiprocessing.Manager().Lock()processes = []photoes=getFiles(dirname)start = time.time()pool = multiprocessing.Pool(4)i = 0while len(photoes) > 0:i = i + 1photo = photoes.pop()pool.apply_async(run_process, (i, photo, photoMd5List, identicalPhotoes, lockForMD5, lockForIdentical, LockForPrint))pool.close()pool.join()end = time.time()last = end - startprint("There are " + str(len(identicalPhotoes)) + " identical photo(es)")if os.path.exists(identicalDir):for i in identicalPhotoes:shutil.move(i, identicalDir)print(i.decode('gbk'))print("main Process exit: lasts for " + str(last) + "s")

相比于非进程池方案,有两点改变,
1、对于总任务photoes的使用,使用进程池的思想为:如果photoes中还有照片要处理,那么创建一个进程处理这张照片(虽然为了一张照片就创建一个进程有点浪费,不过这只是实验,一般的任务不会这么简单)。因此整个过程会创建len(photoes)个进程,但同时最多只会存在4个进程,有进程池大小决定。因此总任务这个资源也就不用锁保护,因为任务分发只在主进程中进行。

2、对于锁对象的传递。由于线程池中参数传递通过pool.apply_async()函数,该函数实际操作时会将参数序列化,因此原先使用的multiprocessing.Lock()无法满足需求,如果仍然使用该变量,就无法达到锁保护左右,结果就是重复文件无法完全识别。这里需要通过multiprocessing.Manager().Lock()来创建锁变量。

我们可以实际操作一下:

>>> import multiprocessing
>>> import pickle
>>> lock = multiprocessing.Lock()
>>> lp = pickle.dumps(lock)
Traceback (most recent call last):
......
RuntimeError: Lock objects should only be shared between processes through inher
itance
>>>

对比Manager的Lock:

>>> import multiprocessing
>>> import pickle
>>> lock = multiprocessing.Manager().Lock()
>>> lp = pickle.dumps(lock)
>>>
>>>

这篇关于Python多进程程文件去重的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/958787

相关文章

Linux进程CPU绑定优化与实践过程

《Linux进程CPU绑定优化与实践过程》Linux支持进程绑定至特定CPU核心,通过sched_setaffinity系统调用和taskset工具实现,优化缓存效率与上下文切换,提升多核计算性能,适... 目录1. 多核处理器及并行计算概念1.1 多核处理器架构概述1.2 并行计算的含义及重要性1.3 并

Linux下进程的CPU配置与线程绑定过程

《Linux下进程的CPU配置与线程绑定过程》本文介绍Linux系统中基于进程和线程的CPU配置方法,通过taskset命令和pthread库调整亲和力,将进程/线程绑定到特定CPU核心以优化资源分配... 目录1 基于进程的CPU配置1.1 对CPU亲和力的配置1.2 绑定进程到指定CPU核上运行2 基于

使用Python删除Excel中的行列和单元格示例详解

《使用Python删除Excel中的行列和单元格示例详解》在处理Excel数据时,删除不需要的行、列或单元格是一项常见且必要的操作,本文将使用Python脚本实现对Excel表格的高效自动化处理,感兴... 目录开发环境准备使用 python 删除 Excphpel 表格中的行删除特定行删除空白行删除含指定

Python通用唯一标识符模块uuid使用案例详解

《Python通用唯一标识符模块uuid使用案例详解》Pythonuuid模块用于生成128位全局唯一标识符,支持UUID1-5版本,适用于分布式系统、数据库主键等场景,需注意隐私、碰撞概率及存储优... 目录简介核心功能1. UUID版本2. UUID属性3. 命名空间使用场景1. 生成唯一标识符2. 数

Python办公自动化实战之打造智能邮件发送工具

《Python办公自动化实战之打造智能邮件发送工具》在数字化办公场景中,邮件自动化是提升工作效率的关键技能,本文将演示如何使用Python的smtplib和email库构建一个支持图文混排,多附件,多... 目录前言一、基础配置:搭建邮件发送框架1.1 邮箱服务准备1.2 核心库导入1.3 基础发送函数二、

Javaee多线程之进程和线程之间的区别和联系(最新整理)

《Javaee多线程之进程和线程之间的区别和联系(最新整理)》进程是资源分配单位,线程是调度执行单位,共享资源更高效,创建线程五种方式:继承Thread、Runnable接口、匿名类、lambda,r... 目录进程和线程进程线程进程和线程的区别创建线程的五种写法继承Thread,重写run实现Runnab

Python包管理工具pip的升级指南

《Python包管理工具pip的升级指南》本文全面探讨Python包管理工具pip的升级策略,从基础升级方法到高级技巧,涵盖不同操作系统环境下的最佳实践,我们将深入分析pip的工作原理,介绍多种升级方... 目录1. 背景介绍1.1 目的和范围1.2 预期读者1.3 文档结构概述1.4 术语表1.4.1 核

基于Python实现一个图片拆分工具

《基于Python实现一个图片拆分工具》这篇文章主要为大家详细介绍了如何基于Python实现一个图片拆分工具,可以根据需要的行数和列数进行拆分,感兴趣的小伙伴可以跟随小编一起学习一下... 简单介绍先自己选择输入的图片,默认是输出到项目文件夹中,可以自己选择其他的文件夹,选择需要拆分的行数和列数,可以通过

Python中反转字符串的常见方法小结

《Python中反转字符串的常见方法小结》在Python中,字符串对象没有内置的反转方法,然而,在实际开发中,我们经常会遇到需要反转字符串的场景,比如处理回文字符串、文本加密等,因此,掌握如何在Pyt... 目录python中反转字符串的方法技术背景实现步骤1. 使用切片2. 使用 reversed() 函

Python中将嵌套列表扁平化的多种实现方法

《Python中将嵌套列表扁平化的多种实现方法》在Python编程中,我们常常会遇到需要将嵌套列表(即列表中包含列表)转换为一个一维的扁平列表的需求,本文将给大家介绍了多种实现这一目标的方法,需要的朋... 目录python中将嵌套列表扁平化的方法技术背景实现步骤1. 使用嵌套列表推导式2. 使用itert