concurrent.futures模块(进程池/线程池)

时间:2021-11-01 22:30:45
需要注意一下
不能无限的开进程,不能无限的开线程
最常用的就是开进程池,开线程池。其中回调函数非常重要
回调函数其实可以作为一种编程思想,谁好了谁就去掉 只要你用并发,就会有锁的问题,但是你不能一直去自己加锁吧
那么我们就用QUEUE,这样还解决了自动加锁的问题
由Queue延伸出的一个点也非常重要的概念。以后写程序也会用到
这个思想。就是生产者与消费者问题

一、Python标准模块--concurrent.futures(并发未来)

concurent.future模块需要了解的
1.concurent.future模块是用来创建并行的任务,提供了更高级别的接口,
为了异步执行调用
2.concurent.future这个模块用起来非常方便,它的接口也封装的非常简单
3.concurent.future模块既可以实现进程池,也可以实现线程池
4.模块导入进程池和线程池
from concurrent.futures import ProcessPoolExecutor,ThreadPoolExecutor
还可以导入一个Executor,但是你别这样导,这个类是一个抽象类
抽象类的目的是规范他的子类必须有某种方法(并且抽象类的方法必须实现),但是抽象类不能被实例化
5.
p = ProcessPoolExecutor(max_works)对于进程池如果不写max_works:默认的是cpu的数目,默认是4个
p = ThreadPoolExecutor(max_works)对于线程池如果不写max_works:默认的是cpu的数目*5
6.如果是进程池,得到的结果如果是一个对象。我们得用一个.get()方法得到结果
但是现在用了concurent.future模块,我们可以用obj.result方法
p.submit(task,i) #相当于apply_async异步方法
p.shutdown() #默认有个参数wite=True (相当于close和join)

那么什么是线程池呢?我们来了解一下

二、线程池

进程池:就是在一个进程内控制一定个数的线程
基于concurent.future模块的进程池和线程池 (他们的同步执行和异步执行是一样的)
 # .同步执行--------------
from concurrent.futures import ProcessPoolExecutor,ThreadPoolExecutor
import os,time,random
def task(n):
print('[%s] is running'%os.getpid())
time.sleep(random.randint(,)) #I/O密集型的,,一般用线程,用了进程耗时长
return n**
if __name__ == '__main__':
start = time.time()
p = ProcessPoolExecutor()
for i in range(): #现在是开了10个任务, 那么如果是上百个任务呢,就不能无线的开进程,那么就得考虑控制
# 线程数了,那么就得考虑到池了
obj = p.submit(task,i).result() #相当于apply同步方法
p.shutdown() #相当于close和join方法
print('='*)
print(time.time() - start) #17.36499309539795 # .异步执行-----------
# from concurrent.futures import ProcessPoolExecutor,ThreadPoolExecutor
# import os,time,random
# def task(n):
# print('[%s] is running'%os.getpid())
# time.sleep(random.randint(,)) #I/O密集型的,,一般用线程,用了进程耗时长
# return n**
# if __name__ == '__main__':
# start = time.time()
# p = ProcessPoolExecutor()
# l = []
# for i in range(): #现在是开了10个任务, 那么如果是上百个任务呢,就不能无线的开进程,那么就得考虑控制
# # 线程数了,那么就得考虑到池了
# obj = p.submit(task,i) #相当于apply_async()异步方法
# l.append(obj)
# p.shutdown() #相当于close和join方法
# print('='*)
# print([obj.result() for obj in l])
# print(time.time() - start) #5.362306594848633

基于concurrent.futures模块的进程池

 from  concurrent.futures import ProcessPoolExecutor,ThreadPoolExecutor
from threading import currentThread
import os,time,random
def task(n):
print('%s:%s is running'%(currentThread().getName(),os.getpid())) #看到的pid都是一样的,因为线程是共享了一个进程
time.sleep(random.randint(,)) #I/O密集型的,,一般用线程,用了进程耗时长
return n**
if __name__ == '__main__':
start = time.time()
p = ThreadPoolExecutor() #线程池 #如果不给定值,默认cup*
l = []
for i in range(): #10个任务 # 线程池效率高了
obj = p.submit(task,i) #相当于apply_async异步方法
l.append(obj)
p.shutdown() #默认有个参数wite=True (相当于close和join)
print('='*)
print([obj.result() for obj in l])
print(time.time() - start) #3.001171827316284

基于concurrent.futures模块的线程池

应用线程池(下载网页并解析)

from concurrent.futures import ThreadPoolExecutor,ProcessPoolExecutor
import requests
import time,os
def get_page(url):
print('<%s> is getting [%s]'%(os.getpid(),url))
response = requests.get(url)
if response.status_code==: #200代表状态:下载成功了
return {'url':url,'text':response.text}
def parse_page(res):
res = res.result()
print('<%s> is getting [%s]'%(os.getpid(),res['url']))
with open('db.txt','a') as f:
parse_res = 'url:%s size:%s\n'%(res['url'],len(res['text']))
f.write(parse_res)
if __name__ == '__main__':
# p = ThreadPoolExecutor()
p = ProcessPoolExecutor()
l = [
'http://www.baidu.com',
'http://www.baidu.com',
'http://www.baidu.com',
'http://www.baidu.com',
]
for url in l:
res = p.submit(get_page,url).add_done_callback(parse_page) #这里的回调函数拿到的是一个对象。得
# 先把返回的res得到一个结果。即在前面加上一个res.result() #谁好了谁去掉回调函数
# 回调函数也是一种编程思想。不仅开线程池用,开线程池也用
p.shutdown() #相当于进程池里的close和join
print('主',os.getpid())

map函数的应用

# map函数举例
obj= map(lambda x:x** ,range())
print(list(obj)) #运行结果[, , , , , , , , , ]

可以和上面的开进程池/线程池的对比着看,就能发现map函数的强大了

 # 我们的那个p.submit(task,i)和map函数的原理类似。我们就
# 可以用map函数去代替。更减缩了代码
from concurrent.futures import ProcessPoolExecutor,ThreadPoolExecutor
import os,time,random
def task(n):
print('[%s] is running'%os.getpid())
time.sleep(random.randint(,)) #I/O密集型的,,一般用线程,用了进程耗时长
return n**
if __name__ == '__main__':
p = ProcessPoolExecutor()
obj = p.map(task,range())
p.shutdown() #相当于close和join方法
print('='*)
print(obj) #返回的是一个迭代器
print(list(obj))

map函数应用

三、协程介绍

协程:单线程下实现并发(提高效率)

说到协成,我们先说一下协程联想到的知识点

切换关键的一点是:保存状态(从原来停留的地方继续切)
return:只能执行一次,结束函数的标志
yield:函数中但凡有yield,这个函数的执行结果就变成了一个生成器,
生成器本质就是一个迭代器,那么迭代器怎么用呢?用一个next()方法 .yield语句的形式:yield
yield功能1:可以用来返回值,可以返回多次值
yield功能2:可以吧函数暂停住,保存原来的状态 .yield表达式的形式:x = yieldsend可以吧一个函数的结果传给另一个函数,以此实现单线程内程序之间的切换
send()要想用就得先next()一下
但是要用send至少要用两个yield  

yield复习

 .yield功能2(可以吧函数暂停住,保存原来的状态)--------------
def f1():
print('first')
yield
print('second')
yield
print('third')
yield
# print(f1()) #加了yield返回的是一个生成器
g = f1()
print(next(g)) #当遇见了yield的时候就返回一个值,而且保存原来的状态
print(next(g)) #当遇见了yield的时候就返回一个值
print(next(g)) #当遇见了yield的时候就返回一个值

yield功能示例

  # .yield表达式(对于表达式的yield)--------------------
import time
def wrapper(func):
def inner(*args,**kwargs):
ret =func(*args,**kwargs)
next(ret)
return ret
return inner
@wrapper
def consumer():
while True:
x= yield
print(x) def producter(target):
'''生产者造值'''
# next(g) #相当于g.send(None)
for i in range():
time.sleep(0.5)
target.send(i)#要用send就得用两个yield
producter(consumer())

引子

本节主题是实现单线程下的并发,即只在一个主线程,并且很明显的是,可利用的cpu只有一个情况下实现并发,

为此我们需要先回顾下并发的本质:切换+保存状态

cpu正在运行一个任务,会在两种情况下切走去执行其他的任务(切换由操作系统强制控制),

一种情况是该任务发生了阻塞,另外一种情况是该任务计算的时间过长

concurrent.futures模块(进程池/线程池)

其中第二种情况并不能提升效率,只是为了让cpu能够雨露均沾,实现看起来大家都被执行的效果,如果多个程序都是纯计算任务,这种切换反而会降低效率。为此我们可以基于yield来验证。yield本身就是一种在单线程下可以保存任务运行状态的方法,我们来简单复习一下:

 yiled可以保存状态,yield的状态保存与操作系统的保存线程状态很像,但是yield是代码级别控制的,更轻量级
send可以把一个函数的结果传给另外一个函数,以此实现单线程内程序之间的切换

单纯的切反而会影响效率

 #串行执行
import time
def consumer(res):
'''任务1:接收数据,处理数据'''
pass def producer():
'''任务2:生产数据'''
res=[]
for i in range():
res.append(i)
return res start=time.time()
#串行执行
res=producer()
consumer(res)
stop=time.time()
print(stop-start) #1.5536692142486572

串行执行

 import time
def wrapper(func):
def inner(*args,**kwargs):
ret =func(*args,**kwargs)
next(ret)
return ret
return inner
@wrapper
def consumer():
while True:
x= yield
print(x) def producter(target):
'''生产者造值'''
# next(g) #相当于g.send(None)
for i in range():
time.sleep(0.5)
target.send(i)#要用send就得用两个yield
producter(consumer())

基于yield并发执行

对于单线程下,我们不可避免程序中出现io操作,但如果我们能在自己的程序中(即用户程序级别,而非操作系统级别)控制单线程下多个任务能遇到io就切换,这样就保证了该线程能够最大限度地处于就绪态,即随时都可以被cpu执行的状态,相当于我们在用户程序级别将自己的io操作最大限度地隐藏起来,对于操作系统来说:这哥们(该线程)好像是一直处于计算过程的,io比较少。

协程的本质就是在单线程下,由用户自己控制一个任务遇到io阻塞了就切换另外一个任务去执行,以此来提升效率。

因此我们需要找寻一种可以同时满足以下条件的解决方案:

1. 可以控制多个任务之间的切换,切换之前将任务的状态保存下来(重新运行时,可以基于暂停的位置继续)

2. 作为1的补充:可以检测io操作,在遇到io操作的情况下才发生切换

四、Greenlet

Greenlet模块和yield没有什么区别,就只是单纯的切,跟效率无关。

只不过比yield更好一点,切的时候方便一点。但是仍然没有解决效率

Greenlet可以让你在多个任务之间来回的切

#安装
pip3 install greenlet

示例:

 from greenlet import greenlet
import time
def eat(name):
print('%s eat 1' %name)
time.sleep() #当遇到IO的时候它也没有切,这就得用gevent了
g2.switch('egon')
print('%s eat 2' %name)
g2.switch()
def play(name):
print('%s play 1' %name)
g1.switch()
print('%s play 2' %name) g1=greenlet(eat)
g2=greenlet(play) g1.switch('egon')#可以在第一次switch时传入参数,以后都不需要

gevent

所以上面的方法都不可行,那么这就用到了Gevert ,也就是协程。就解决了单线程实现并发的问题,还提升了效率

五、Gevent介绍

#安装
pip3 install gevent

Gevent 是一个第三方库,可以轻松通过gevent实现并发同步或异步编程,在gevent中用到的主要模式是Greenlet,

它是以C扩展模块形式接入Python的轻量级协程。 Greenlet全部运行在主程序操作系统进程的内部,但它们被协作式地调度

#用法
g1=gevent.spawn(func,,,,,x=,y=)创建一个协程对象g1,spawn括号内第一个参数是函数名,如eat,后面可以有多个参数,可以是位置实参或关键字实参,都是传给函数eat的 g2=gevent.spawn(func2) g1.join() #等待g1结束 g2.join() #等待g2结束 #或者上述两步合作一步:gevent.joinall([g1,g2]) g1.value#拿到func1的返回值

示例:

 from gevent import monkey;monkey.patch_all()
import gevent
import time
def eat(name):
print('%s eat 1' %name)
time.sleep() #我们用等待的时间模拟IO阻塞
''' 在gevent模块里面要用gevent.sleep(2)表示等待的时间
然而我们经常用time.sleep()用习惯了,那么有些人就想着
可以用time.sleep(),那么也不是不可以。要想用,就得在
最上面导入from gevent import monkey;monkey.patch_all()这句话
如果不导入直接用time.sleep(),就实现不了单线程并发的效果了
'''
# gevent.sleep()
print('%s eat 2' %name)
return 'eat'
def play(name):
print('%s play 1' %name)
time.sleep()
# gevent.sleep()
print('%s play 2' %name)
return 'paly' #当有返回值的时候,gevent模块也提供了返回结果的操作 start = time.time()
g1 = gevent.spawn(eat,'egon') #执行任务
g2 = gevent.spawn(play,'egon') #g1和g2的参数可以不一样
# g1.join() #等待g1
# g2.join() #等待g2
#上面等待的两句也可以这样写
gevent.joinall([g1,g2])
print('主',time.time()-start) #3.001171588897705 print(g1.value)
print(g2.value)

gevent一些方法(重要)

需要说明的是:

gevent.sleep(2)模拟的是gevent可以识别的io阻塞,

而time.sleep(2)或其他的阻塞,gevent是不能直接识别的需要用下面一行代码,打补丁,就可以识别了

from gevent import monkey;monkey.patch_all()必须放到被打补丁者的前面,如time,socket模块之前

或者我们干脆记忆成:要用gevent,需要将from gevent import monkey;monkey.patch_all()放到文件的开头

六、Gevent之同步于异步

 from gevent import spawn,joinall,monkey;monkey.patch_all()

  import time
def task(pid):
"""
Some non-deterministic task
"""
time.sleep(0.5)
print('Task %s done' % pid) def synchronous():
for i in range():
task(i) def asynchronous():
g_l=[spawn(task,i) for i in range()]
joinall(g_l) if __name__ == '__main__':
print('Synchronous:')
synchronous() print('Asynchronous:')
asynchronous()
#上面程序的重要部分是将task函数封装到Greenlet内部线程的gevent.spawn。 初始化的greenlet列表存放在数组threads中,此数组被传给gevent.joinall 函数,后者阻塞当前流程,并执行所有给定的greenlet。执行流程只会在 所有greenlet执行完后才会继续向下走。

七、Gevent之应用举例一

  from gevent import monkey;monkey.patch_all()  #打补丁
import gevent
import requests
import time
def get_page(url):
print('get :%s'%url)
response = requests.get(url)
if response.status_code==: #下载成功的状态
print('%d bytes received from:%s'%(len(response.text),url))
start=time.time()
gevent.joinall([
gevent.spawn(get_page,'http://www.baidu.com'),
gevent.spawn(get_page, 'https://www.yahoo.com/'),
gevent.spawn(get_page, 'https://github.com/'),
])
stop = time.time()
print('run time is %s' %(stop-start))

协程应用爬虫

from gevent import joinall,spawn,monkey;monkey.patch_all()
import requests
from threading import current_thread def parse_page(res):
print('%s PARSE %s' %(current_thread().getName(),len(res))) def get_page(url,callback=parse_page):
print('%s GET %s' %(current_thread().getName(),url))
response=requests.get(url)
if response.status_code == :
callback(response.text) if __name__ == '__main__':
urls=[
'https://www.baidu.com',
'https://www.taobao.com',
'https://www.openstack.org',
] tasks=[]
for url in urls:
tasks.append(spawn(get_page,url)) joinall(tasks)

协程应用爬虫(回调函数版)

八、Gevent之应用举例二

也可以利用协程实现并发

 #!usr/bin/env python
# -*- coding:utf- -*-
from gevent import monkey;monkey.patch_all()
import gevent
from socket import *
print('start running...')
def talk(conn,addr):
while True:
data = conn.recv()
print('%s:%s %s'%(addr[],addr[],data))
conn.send(data.upper())
conn.close()
def server(ip,duankou):
server = socket(AF_INET, SOCK_STREAM)
server.setsockopt(SOL_SOCKET, SO_REUSEADDR, )
server.bind((ip,duankou))
server.listen()
while True:
conn,addr = server.accept() #等待链接
gevent.spawn(talk,conn,addr) #异步执行 (p =Process(target=talk,args=(coon,addr))
# p.start())相当于开进程里的这两句
server.close()
if __name__ == '__main__':
server('127.0.0.1',)

服务端利用协程

 #!usr/bin/env python
# -*- coding:utf- -*-
from multiprocessing import Process
from gevent import monkey;monkey.patch_all()
from socket import *
def client(ip,duankou):
client = socket(AF_INET, SOCK_STREAM)
client.connect((ip,duankou))
while True:
client.send('hello'.encode('utf-8'))
data = client.recv()
print(data.decode('utf-8'))
if __name__ == '__main__':
for i in range():
p = Process(target=client,args=(('127.0.0.1',)))
p.start()

客户端开多个进程

concurrent.futures模块(进程池/线程池)的更多相关文章

  1. 使用concurrent&period;futures模块中的线程池与进程池

    使用concurrent.futures模块中的线程池与进程池 线程池与进程池 以线程池举例,系统使用多线程方式运行时,会产生大量的线程创建与销毁,创建与销毁必定会带来一定的消耗,甚至导致系统资源的崩 ...

  2. concurrent&period;futures模块&lpar;进程池&amp&semi;线程池&rpar;

    1.线程池的概念 由于python中的GIL导致每个进程一次只能运行一个线程,在I/O密集型的操作中可以开启多线程,但是在使用多线程处理任务时候,不是线程越多越好,因为在线程切换的时候,需要切换上下文 ...

  3. concurrent&period;futures模块 -----进程池 ---线程池 ---回调

    concurrent.futures模块提供了高度封装的异步调用接口,它内部有关的两个池 ThreadPoolExecutor:线程池,提供异步调用,其基础就是老版的Pool ProcessPoolE ...

  4. Python标准模块--concurrent&period;futures&lpar;进程池&comma;线程池&rpar;

    python为我们提供的标准模块concurrent.futures里面有ThreadPoolExecutor(线程池)和ProcessPoolExecutor(进程池)两个模块. 在这个模块里他们俩 ...

  5. 线程池、进程池&lpar;concurrent&period;futures模块&rpar;和协程

    一.线程池 1.concurrent.futures模块 介绍 concurrent.futures模块提供了高度封装的异步调用接口 ThreadPoolExecutor:线程池,提供异步调用 Pro ...

  6. Python并发编程之线程池&sol;进程池--concurrent&period;futures模块

    一.关于concurrent.futures模块 Python标准库为我们提供了threading和multiprocessing模块编写相应的多线程/多进程代码,但是当项目达到一定的规模,频繁创建/ ...

  7. 《转载》Python并发编程之线程池&sol;进程池--concurrent&period;futures模块

    本文转载自Python并发编程之线程池/进程池--concurrent.futures模块 一.关于concurrent.futures模块 Python标准库为我们提供了threading和mult ...

  8. Python标准模块--concurrent&period;futures 进程池线程池终极用法

    concurrent.futures 这个模块是异步调用的机制concurrent.futures 提交任务都是用submitfor + submit 多个任务的提交shutdown 是等效于Pool ...

  9. 使用concurrent&period;futures模块并发,实现进程池、线程池

    Python标准库为我们提供了threading和multiprocessing模块编写相应的异步多线程/多进程代码 从Python3.2开始,标准库为我们提供了concurrent.futures模 ...

随机推荐

  1. MySQL导出数据

    1.MySQL导出数据库 只导出数据库结构:选中数据库-->右键—>数据传输—>高级—>取消勾选记录选项.

  2. node中定时器的&OpenCurlyDoubleQuote;先进”用法

    var DSQ = setInterval(function(){ console.log('zzq'); },1000); setTimeout(function(){ clearInterval( ...

  3. iOS&colon; XCode6 beta 6 错误

    在使用XCode6 Beta6时, 遇到"__TFSs15_arrayForceCastU___FGSaQ__GSaQ0__"错误: 在http://*.c ...

  4. 使用yum安装cmake

    一.搜索yum源中的CMake,查看源中最新的版本是什么,使用命令[root@localhost ~]# yum search cmake ,如果搜索出的结果过多可以配合grep命令来控制搜索结果. ...

  5. LeetCode 75&period; Sort Colors(排序颜色)

    Given an array with n objects colored red, white or blue, sort them so that objects of the same colo ...

  6. Spring核心——设计模式与IoC

    “Spring”——每一个Javaer开发者都绕不开的字眼,从21世纪第一个十年国内异常活跃的SSH框架,到现在以Spring Boot作为入口粘合了各种应用.Spring现在已经完成了从web入口到 ...

  7. 软件工程&lowbar;2nd weeks

    本周上课没有板书,都由老师口头叙述 因此有的笔记记得不是很全,幸好有郑蕊师姐发布的课堂笔记,很好的梳理上课的内容~ 1.根据老师上课给的建议,进行了深刻的思考和反思 1.1 作为一个学硕研究生,这门课 ...

  8. &lbrack;招聘&rsqb; 上海耐斯特数字招聘3D图形软件工程师

    公司介绍 上海耐斯特数字科技有限公司成立于2018年9月,致力于为中国原创动画.影视行业提供新一代核心技术解决方案和全流程技术服务.公司创始团队拥有国内外领先的行业背景与资源,在DCC软件开发方面具有 ...

  9. lr关联-保存数组并调用(转)

    LOADRUNNER中的一个关联技巧     众所周知,在LoadRunner中,关联是一个很重要的动作,大多数的脚本在录制完成后并不能直接回放,需要通过一定的关联才能成功回放.关联的技巧有很多,这里 ...

  10. 【离散数学】 SDUT OJ 偏序关系

    偏序关系 Time Limit: 1000 ms Memory Limit: 65536 KiB Submit Statistic Problem Description 给定有限集上二元关系的关系矩 ...