python全栈开发从入门到放弃之socket并发编程多进程

时间:2021-05-22 23:56:26

1.1 multiprocessing模块介绍

    python中的多线程无法利用多核优势,如果想要充分地使用多核CPU的资源(os.cpu_count()查看),在python中大部分情况需要使用多进程。Python提供了非常好用的多进程包multiprocessing。
    multiprocessing模块用来开启子进程,并在子进程中执行我们定制的任务(比如函数),该模块与多线程模块threading的编程接口类似。

  multiprocessing模块的功能众多:支持子进程、通信和共享数据、执行不同形式的同步,提供了Process、Queue、Pipe、Lock等组件。

    需要再次强调的一点是:与线程不同,进程没有任何共享状态,进程修改的数据,改动仅限于该进程内。

1.2 Process类的介绍

Process([group [, target [, name [, args [, kwargs]]]]]),由该类实例化得到的对象,表示一个子进程中的任务(尚未启动)

强调:
1. 需要使用关键字的方式来指定参数
2. args指定的为传给target函数的位置参数,是一个元组形式,必须有逗号

    参数介绍:

1 group参数未使用,值始终为None
2
3 target表示调用对象,即子进程要执行的任务
4
5 args表示调用对象的位置参数元组,args=(1,2,'egon',)
6
7 kwargs表示调用对象的字典,kwargs={'name':'egon','age':18}
8
9 name为子进程的名称

 方法介绍:

1 p.start():启动进程,并调用该子进程中的p.run() 
2 p.run():进程启动时运行的方法,正是它去调用target指定的函数,我们自定义类的类中一定要实现该方法
3
4 p.terminate():强制终止进程p,不会进行任何清理操作,如果p创建了子进程,该子进程就成了僵尸进程,使用该方法需要特别小心这种情况。如果p还保存了一个锁那么也将不会被释放,进而导致死锁
5 p.is_alive():如果p仍然运行,返回True
6
7 p.join([timeout]):主线程等待p终止(强调:是主线程处于等的状态,而p是处于运行的状态)。timeout是可选的超时时间,需要强调的是,p.join只能join住start开启的进程,而不能join住run开启的进程

   属性介绍:

1 p.daemon:默认值为False,如果设为True,代表p为后台运行的守护进程,当p的父进程终止时,p也随之终止,并且设定为True后,p不能创建自己的新进程,必须在p.start()之前设置
2
3 p.name:进程的名称
4
5 p.pid:进程的pid
6
7 p.exitcode:进程在运行时为None、如果为–N,表示被信号N结束(了解即可)
8
9 p.authkey:进程的身份验证键,默认是由os.urandom()随机生成的32字符的字符串。这个键的用途是为涉及网络连接的底层进程间通信提供安全性,这类连接只有在具有相同的身份验证键时才能成功(了解即可)

1.3 Process类的使用

=====================part1:创建并开启子进程的两种方式

注意:在windows中Process()必须放到# if __name__ == '__main__':下

Since Windows has no fork, the multiprocessing module starts a new Python process and imports the calling module. 
If Process() gets called upon import, then this sets off an infinite succession of new processes (or until your machine runs out of resources). 
This is the reason for hiding calls to Process() inside

if __name__ == "__main__"
since statements inside this if-statement will not get called upon import.

由于Windows没有fork,多处理模块启动一个新的Python进程并导入调用模块。 
如果在导入时调用Process(),那么这将启动无限继承的新进程(或直到机器耗尽资源)。 
这是隐藏对Process()内部调用的原,使用if __name__ == “__main __”,这个if语句中的语句将不会在导入时被调用。

并发开启方式一

from multiprocessing import Process     #导入子进程
import time,random
import os
def piao(name): #定义一个函数传入name参数
print(os.getppid(),os.getpid()) #os.getppid查看父类的进程id,os.getpid查看子进程的进程id
print('%s is piaoing' %name)
# time.sleep(random.randint(1,3))
print('%s is piao end' %name)
if __name__ == '__main__': #调用自身模块时
p1=Process(target=piao,kwargs={'name':'alex',}) #定义子进程
p2=Process(target=piao,args=('wupeiqi',))
p3
=Process(target=piao,kwargs={'name':'yuanhao',})
p1.start()
#开启子进程
p2.start() #开启子进程是无序的
p3.start()
print('主进程',os.getpid()) 会先启动主进程在开始子进程,

并发方式二

from multiprocessing import Process
import time,random
import os
class Piao(Process): #定义一个类,父类是Process
def __init__(self,name):
super().
__init__() #在子类用父类的
self.name=name
def run(self):
print(os.getppid(),os.getpid())
print('%s is piaoing' %self.name)
# time.sleep(random.randint(1,3))
print('%s is piao end' %self.name)
if __name__ == '__main__':
p1
=Piao('alex') #然后直接在类传入参数
p2=Piao('wupeiqi')
p3
=Piao('yuanhao')

p1.start()
#在启动
p2.start()
p3.start()
print('主进程',os.getpid(),os.getppid())

socket实现多并发实例

python全栈开发从入门到放弃之socket并发编程多进程python全栈开发从入门到放弃之socket并发编程多进程
from socket import *
from multiprocessing import Process
s
=socket(AF_INET,SOCK_STREAM)
s.setsockopt(SOL_SOCKET,SO_REUSEADDR,
1) #就是它,在bind前加
s.bind(('127.0.0.1',8088))
s.listen(
5)
def talk(conn,addr):
while True: #通信循环
try:
data
=conn.recv(1024)
if not data:break
conn.send(data.upper())
except Exception:
break
conn.close()
if __name__ == '__main__':
while True:#链接循环
conn,addr=s.accept()
p
=Process(target=talk,args=(conn,addr))
p.start()
s.close()
服务端
python全栈开发从入门到放弃之socket并发编程多进程python全栈开发从入门到放弃之socket并发编程多进程
from socket import *
c
=socket(AF_INET,SOCK_STREAM)
c.connect((
'127.0.0.1',8088))

while True:
msg
=input('>>: ').strip()
if not msg:continue
c.send(msg.encode(
'utf-8'))
data
=c.recv(1024)
print(data.decode('utf-8'))
c.close()
客户端

 

1.4 进程同步(锁)

进程之间数据不共享,但是共享同一套文件系统,所以访问同一个文件,或同一个打印终端,是没有问题的,
part1:共享同一打印终端,发现会有多行内容打印到一行的现象(多个进程共享并抢占同一个打印终端,乱了)
以上厕所为例
from multiprocessing import Process,Lock
import os
import time
def work():

print('task[%s] 上厕所' %os.getpid())
time.sleep(
3)
print('task[%s] 上完厕所' %os.getpid())
if __name__ == '__main__':
p1=Process(target=work)
p2
=Process(target=work)
p3
=Process(target=work)
p1.start()
p2.start()
p3.start()

print('')
输出结果:


task[5580] 上厕所
task[11164] 上厕所
task[12828] 上厕所
task[5580] 上完厕所
task[11164] 上完厕所
task[12828] 上完厕所

可以清楚的看到,三个子进程在抢一个打印终端,一个程序还没上完厕所,操作系统有个机制不会让下一个子进程不会再等待中。

 

用Lock模块,

from multiprocessing import Process,Lock     #Lock添加锁模块
import os
import time
def work(mutex):
mutex.acquire()
print('task[%s] 上厕所' %os.getpid())
time.sleep(
3)
print('task[%s] 上完厕所' %os.getpid())
mutex.release()
if __name__ == '__main__':
mutex
=Lock() #定义模块的值
p1=Process(target=work,args=(mutex,)) #把模块的命名传给函数
p2=Process(target=work,args=(mutex,))
p3
=Process(target=work,args=(mutex,))
p1.start()
p2.start()
p3.start()

print('')
输出结果:


task[12404] 上厕所
task[12404] 上完厕所
task[5312] 上厕所
task[5312] 上完厕所
task[10544] 上厕所
task[10544] 上完厕所

现在就是一个子进程进去其余进程都在等待那一个进程结束才能进去

需知:加锁的目的是为了保证多个进程修改同一块数据时,同一时间只能有一个修改,即串行的修改,没错,速度是慢了,牺牲了速度而保证了数据安全。

进程之间数据隔离,但是共享一套文件系统,因而可以通过文件来实现进程直接的通信,但问题是必须自己加锁处理

所以,就让我们帮文件当做数据库,模拟抢票(Lock互斥锁)

json读文件一定要加上双引号,不然无法识别

python全栈开发从入门到放弃之socket并发编程多进程python全栈开发从入门到放弃之socket并发编程多进程
模拟抢票
#db.txt文件内容
{"count": 1} #假如票数只有一个了

#导入模块
import os,time
from multiprocessing import Process,Lock
import json,random

#剩余票数
def func():
f
=json.load(open('db.txt')) #用json序列化
print('剩余票数%s'%f['count']) # 直接取根据字典取值
#
买票
def woak():
f
=json.load(open('db.txt'))
if f['count'] >0: #判断字典的值是否大于0,大于0说明有票
f['count']-=1 #有票就购买,然后就-1
time.sleep(random.randint(1,3)) #模拟在网络上的延迟
json.dump(f,open('db.txt','w'))
print('%s 购票成功'%os.getpid())
def func1(mutex):
func()
time.sleep(random.randint(
1,3)) #模拟网络上的延迟
mutex.acquire() #加上锁
woak()
mutex.release()
#当一个子进程结束就释放锁,不然永远这个子进程不会结束
if __name__ == '__main__':
mutex
=Lock()
for i in range(50):
p
=Process(target=func1,args=(mutex,))
p.start()
'''
输出结果:
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
剩余票数1
11976 购票成功 #只有一个购票成功
模拟买票

 

学习了通过使用共享的文件的方式,实现进程直接的共享,即共享数据的方式,这种方式必须考虑周全同步、锁等问题。而且文件是操作系统提供的抽象,可以作为进程直接通信的介质,与mutiprocess模块无关。

 

但其实mutiprocessing模块为我们提供了基于消息的IPC通信机制:队列和管道。

IPC机制中的队列又是基于(管道+锁)实现的,可以让我们从复杂的锁问题中解脱出来,

我们应该尽量避免使用共享数据,尽可能使用消息传递和队列,避免处理复杂的同步和锁问题,而且在进程数目增多时,往往可以获得更好的可获展性。

1.5 进程间通信(IPC)方式一:队列(推荐使用)

    进程彼此之间互相隔离,要实现进程间通信(IPC),multiprocessing模块支持两种形式:队列和管道,这两种方式都是使用消息传递的

    创建队列的类(底层就是以管道和锁定的方式实现)

1 Queue([maxsize]):创建共享的进程队列,Queue是多进程安全的队列,可以使用Queue实现多进程之间的数据传递。 

  参数介绍:

1 maxsize是队列中允许最大项数,省略则无大小限制。  

方法介绍:

    主要方法:
1 q.put方法用以插入数据到队列中,put方法还有两个可选参数:blocked和timeout。如果blocked为True(默认值),并且timeout为正值,该方法会阻塞timeout指定的时间,直到该队列有剩余的空间。如果超时,会抛出Queue.Full异常。如果blocked为False,但该Queue已满,会立即抛出Queue.Full异常。
2 q.get方法可以从队列读取并且删除一个元素。同样,get方法有两个可选参数:blocked和timeout。如果blocked为True(默认值),并且timeout为正值,那么在等待时间内没有取到任何元素,会抛出Queue.Empty异常。如果blocked为False,有两种情况存在,如果Queue有一个值可用,则立即返回该值,否则,如果队列为空,则立即抛出Queue.Empty异常.
3
4 q.get_nowait():同q.get(False)
5 q.put_nowait():同q.put(False)
6
7 q.empty():调用此方法时q为空则返回True,该结果不可靠,比如在返回True的过程中,如果队列中又加入了项目。
8 q.full():调用此方法时q已满则返回True,该结果不可靠,比如在返回True的过程中,如果队列中的项目被取走。
9 q.qsize():返回队列中目前项目的正确数量,结果也不可靠,理由同q.empty()和q.full()一样

    其他方法(了解):

1 q.cancel_join_thread():不会在进程退出时自动连接后台线程。可以防止join_thread()方法阻塞
2 q.close():关闭队列,防止队列中加入更多数据。调用此方法,后台线程将继续写入那些已经入队列但尚未写入的数据,但将在此方法完成时马上关闭。如果q被垃圾收集,将调用此方法。关闭队列不会在队列使用者中产生任何类型的数据结束信号或异常。例如,如果某个使用者正在被阻塞在get()操作上,关闭生产者中的队列不会导致get()方法返回错误。
3 q.join_thread():连接队列的后台线程。此方法用于在调用q.close()方法之后,等待所有队列项被消耗。默认情况下,此方法由不是q的原始创建者的所有进程调用。调用q.cancel_join_thread方法可以禁止这种行为

   应用:

rom multiprocessing import Process,Queue
# 1:可以往队列里放任意类型的数据 2 队列:先进先出
q=Queue(3)
q.put(
'first')
q.put(
'second')
q.put(
'third')
# q.put('fourht')

print(q.get())
print(q.get())
print(q.get())
# print(q.get())


q
=Queue(3)
q.put(
'first',block=False)
q.put(
'second',block=False)
q.put(
'third',block=False)
# q.put('fourth',block=False)
q.put('fourth',block=True,timeout=3)


q.get(block
=False)
q.get(block
=True,timeout=3)

q.get_nowait()
#q.get(block=False)

  生产者消费者模型

在并发编程中使用生产者和消费者模式能够解决绝大多数并发问题。该模式通过平衡生产线程和消费线程的工作能力来提高程序的整体处理数据的速度。

为什么要使用生产者和消费者模式

在线程世界里,生产者就是生产数据的线程,消费者就是消费数据的线程。在多线程开发当中,如果生产者处理速度很快,而消费者处理速度很慢,那么生产者就必须等待消费者处理完,才能继续生产数据。同样的道理,如果消费者的处理能力大于生产者,那么消费者就必须等待生产者。为了解决这个问题于是引入了生产者和消费者模式。

什么是生产者消费者模式

生产者消费者模式是通过一个容器来解决生产者和消费者的强耦合问题。生产者和消费者彼此之间不直接通讯,而通过阻塞队列来进行通讯,所以生产者生产完数据之后不用等待消费者处理,直接扔给阻塞队列,消费者不找生产者要数据,而是直接从阻塞队列里取,阻塞队列就相当于一个缓冲区,平衡了生产者和消费者的处理能力。

基于队列实现生产者消费者模型

python全栈开发从入门到放弃之socket并发编程多进程python全栈开发从入门到放弃之socket并发编程多进程
# 生产者消费者模型1
from multiprocessing import Process,Queue
import time
import random
import os
def consumer(q):
while True:
res
=q.get()
if res is None:
break
time.sleep(random.randint(
1,3))
print('\033[45m%s 吃了 %s\033[0m' % (os.getpid(), res))
def producer(q):
for i in range(5):
time.sleep(
2)
res
='包子%s' %i
q.put(res)
print('\033[44m%s 制造了 %s\033[0m' %(os.getpid(),res))
q.put(None)
if __name__ == '__main__':
q
=Queue()
#生产者们:厨师们
p1=Process(target=producer,args=(q,))

#消费者们:吃货们
p2=Process(target=consumer,args=(q,))

p1.start()
p2.start()
p1.join()
p2.join()
print('')
from multiprocessing import Process,Queue
import time,random,os


def consumer(q):
while True:
time.sleep(random.randint(
1,3))
res
=q.get()
if res is None:break
print('\033[45m消费者拿到了:%s\033[0m' %res)

def producer(seq,q):
for item in seq:
time.sleep(random.randint(
1,3))
print('\033[46m生产者生产了:%s\033[0m' %item)

q.put(item)

if __name__ == '__main__':
q
=Queue()

c
=Process(target=consumer,args=(q,))
c.start()

producer((
'包子%s' %i for i in range(10)),q)
q.put(None)
c.join()
print('主线程')
python全栈开发从入门到放弃之socket并发编程多进程python全栈开发从入门到放弃之socket并发编程多进程
#生产者消费者模型3
from multiprocessing import Process,JoinableQueue
import time
import random
import os
def consumer(q):
while True:
res
=q.get()
time.sleep(random.randint(
1,3))
print('\033[45m%s 吃了 %s\033[0m' % (os.getpid(), res))
q.task_done()

def product_baozi(q):
for i in range(5):
time.sleep(
2)
res
='包子%s' %i
q.put(res)
print('\033[44m%s 制造了 %s\033[0m' %(os.getpid(),res))
q.join()

if __name__ == '__main__':
q
=JoinableQueue()
#生产者们:厨师们
p1=Process(target=product_baozi,args=(q,))

#消费者们:吃货们
p4=Process(target=consumer,args=(q,))
p4.daemon
=True

p1.start()
p4.start()

p1.join()
print('')
#p2结束了
python全栈开发从入门到放弃之socket并发编程多进程python全栈开发从入门到放弃之socket并发编程多进程
from multiprocessing import Process,JoinableQueue
import time
import random
import os
def consumer(q):
while True:
res
=q.get()
time.sleep(random.randint(
1,3))
print('\033[45m%s 吃了 %s\033[0m' % (os.getpid(), res))
q.task_done()

def product_baozi(q):
for i in range(3):
time.sleep(
2)
res
='包子%s' %i
q.put(res)
print('\033[44m%s 制造了 %s\033[0m' %(os.getpid(),res))
q.join()

def product_gutou(q):
for i in range(3):
time.sleep(
2)
res
='骨头%s' %i
q.put(res)
print('\033[44m%s 制造了 %s\033[0m' %(os.getpid(),res))
q.join()

def product_ganshui(q):
for i in range(3):
time.sleep(
2)
res
='泔水%s' %i
q.put(res)
print('\033[44m%s 制造了 %s\033[0m' %(os.getpid(),res))
q.join()
if __name__ == '__main__':
q
=JoinableQueue()
#生产者们:厨师们
p1=Process(target=product_baozi,args=(q,))
p2
=Process(target=product_gutou,args=(q,))
p3
=Process(target=product_ganshui,args=(q,))

#消费者们:吃货们
p4=Process(target=consumer,args=(q,))
p5
=Process(target=consumer,args=(q,))
p4.daemon
=True
p5.daemon
=True

p_l
=[p1,p2,p3,p4,p5]
for p in p_l:
p.start()

p1.join()
p2.join()
p3.join()

print('')

 

创建队列的另外一个类:

    JoinableQueue([maxsize]):这就像是一个Queue对象,但队列允许项目的使用者通知生成者项目已经被成功处理。通知进程是使用共享的信号和条件变量来实现的。

    参数介绍:

    maxsize是队列中允许最大项数,省略则无大小限制。    

  方法介绍:

    JoinableQueue的实例p除了与Queue对象相同的方法之外还具有:    q.task_done():使用者使用此方法发出信号,表示q.get()的返回项目已经被处理。如果调用此方法的次数大于从队列中删除项目的数量,将引发ValueError异常    q.join():生产者调用此方法进行阻塞,直到队列中所有的项目均被处理。阻塞将持续到队列中的每个项目均调用q.task_done()方法为止

 

管道

进程间通信(IPC)方式二:管道(不推荐使用,了解即可)

python全栈开发从入门到放弃之socket并发编程多进程python全栈开发从入门到放弃之socket并发编程多进程
#创建管道的类:
Pipe([duplex]):在进程之间创建一条管道,并返回元组(conn1,conn2),其中conn1,conn2表示管道两端的连接对象,强调一点:必须在产生Process对象之前产生管道
#参数介绍:
dumplex:默认管道是全双工的,如果将duplex射成False,conn1只能用于接收,conn2只能用于发送。
#主要方法:
conn1.recv():接收conn2.send(obj)发送的对象。如果没有消息可接收,recv方法会一直阻塞。如果连接的另外一端已经关闭,那么recv方法会抛出EOFError。
conn1.send(obj):通过连接发送对象。obj是与序列化兼容的任意对象
#其他方法:
conn1.close():关闭连接。如果conn1被垃圾回收,将自动调用此方法
conn1.fileno():返回连接使用的整数文件描述符
conn1.poll([timeout]):如果连接上的数据可用,返回True。timeout指定等待的最长时限。如果省略此参数,方法将立即返回结果。如果将timeout射成None,操作将无限期地等待数据到达。

conn1.recv_bytes([maxlength]):接收c.send_bytes()方法发送的一条完整的字节消息。maxlength指定要接收的最大字节数。如果进入的消息,超过了这个最大值,将引发IOError异常,并且在连接上无法进行进一步读取。如果连接的另外一端已经关闭,再也不存在任何数据,将引发EOFError异常。
conn.send_bytes(buffer [, offset [, size]]):通过连接发送字节数据缓冲区,buffer是支持缓冲区接口的任意对象,offset是缓冲区中的字节偏移量,而size是要发送字节数。结果数据以单条消息的形式发出,然后调用c.recv_bytes()函数进行接收

conn1.recv_bytes_into(buffer [, offset]):接收一条完整的字节消息,并把它保存在buffer对象中,该对象支持可写入的缓冲区接口(即bytearray对象或类似的对象)。offset指定缓冲区中放置消息处的字节位移。返回值是收到的字节数。如果消息长度大于可用的缓冲区空间,将引发BufferTooShort异常。
介绍
python全栈开发从入门到放弃之socket并发编程多进程python全栈开发从入门到放弃之socket并发编程多进程
from multiprocessing import Process,Pipe

import time,os
def consumer(p,name):
left,right
=p
left.close()
while True:
try:
baozi
=right.recv()
print('%s 收到包子:%s' %(name,baozi))
except EOFError:
right.close()
break
def producer(seq,p):
left,right
=p
right.close()
for i in seq:
left.send(i)
# time.sleep(1)
else:
left.close()
if __name__ == '__main__':
left,right
=Pipe()

c1
=Process(target=consumer,args=((left,right),'c1'))
c1.start()


seq
=(i for i in range(10))
producer(seq,(left,right))

right.close()
left.close()

c1.join()
print('主进程')
基于管道实现的通信

注意:生产者和消费者都没有使用管道的某个端点,就应该将其关闭,如在生产者中关闭管道的右端,在消费者中关闭管道的左端。如果忘记执行这些步骤,程序可能再消费者中的recv()操作上挂起。管道是由操作系统进行引用计数的,必须在所有进程中关闭管道后才能生产EOFError异常。因此在生产者中关闭管道不会有任何效果,付费消费者中也关闭了相同的管道端点。

八 共享数据

展望未来,基于消息传递的并发编程是大势所趋

即便是使用线程,推荐做法也是将程序设计为大量独立的线程集合

通过消息队列交换数据。这样极大地减少了对使用锁定和其他同步手段的需求,

还可以扩展到分布式系统中

进程间通信应该尽量避免使用本节所讲的共享数据的方式

进程间数据是独立的,可以借助于队列或管道实现通信,二者都是基于消息传递的

虽然进程间数据独立,但可以通过Manager实现数据共享,事实上Manager的功能远不止于此

A manager object returned by Manager() controls a server process which holds Python objects
and allows other processes to manipulate them using proxies.

A manager returned by Manager() will support types list, dict, Namespace, Lock, RLock, Semaphore, BoundedSemaphore, Condition, Event, Barrier, Queue, Value
and Array. For example,
python全栈开发从入门到放弃之socket并发编程多进程python全栈开发从入门到放弃之socket并发编程多进程
from multiprocessing import Manager,Process,Lock
import os
def work(d,lock):
# with lock: #不加锁而操作共享的数据,肯定会出现数据错乱
d['count']-=1

if __name__ == '__main__':
lock
=Lock()
with Manager() as m:
dic
=m.dict({'count':100})
p_l
=[]
for i in range(100):
p
=Process(target=work,args=(dic,lock))
p_l.append(p)
p.start()
for p in p_l:
p.join()
print(dic)
#{'count': 94}
View Code
python全栈开发从入门到放弃之socket并发编程多进程python全栈开发从入门到放弃之socket并发编程多进程
互斥锁 同时只允许一个线程更改数据,而Semaphore是同时允许一定数量的线程更改数据 ,比如厕所有3个坑,那最多只允许3个人上厕所,后面的人只能等里面有人出来了才能再进去,如果指定信号量为3,那么来一个人获得一把锁,计数加1,当计数等于3时,后面的人均需要等待。一旦释放,就有人可以获得一把锁

信号量与进程池的概念很像,但是要区分开,信号量涉及到加锁的概念

from multiprocessing import Process,Semaphore
import time,random

def go_wc(sem,user):
sem.acquire()
print('%s 占到一个茅坑' %user)
time.sleep(random.randint(0,
3)) #模拟每个人拉屎速度不一样,0代表有的人蹲下就起来了
sem.release()

if __name__ == '__main__':
sem
=Semaphore(5)
p_l
=[]
for i in range(13):
p
=Process(target=go_wc,args=(sem,'user%s' %i,))
p.start()
p_l.append(p)

for i in p_l:
i.join()
print('============》')
信号量(了解)

进程池

在利用Python进行系统管理的时候,特别是同时操作多个文件目录,或者远程控制多台主机,并行操作可以节约大量的时间。多进程是实现并发的手段之一,需要注意的问题是:

  1. 很明显需要并发执行的任务通常要远大于核数
  2. 一个操作系统不可能无限开启进程,通常有几个核就开几个进程
  3. 进程开启过多,效率反而会下降(开启进程是需要占用系统资源的,而且开启多余核数目的进程也无法做到并行)

例如当被操作对象数目不大时,可以直接利用multiprocessing中的Process动态成生多个进程,十几个还好,但如果是上百个,上千个。。。手动的去限制进程数量却又太过繁琐,此时可以发挥进程池的功效。

我们就可以通过维护一个进程池来控制进程数目,比如httpd的进程模式,规定最小进程数和最大进程数... 
ps:对于远程过程调用的高级应用程序而言,应该使用进程池,Pool可以提供指定数量的进程,供用户调用,当有新的请求提交到pool中时,如果池还没有满,那么就会创建一个新的进程用来执行该请求;但如果池中的进程数已经达到规定最大值,那么该请求就会等待,直到池中有进程结束,就重用进程池中的进程。

    创建进程池的类:如果指定numprocess为3,则进程池会从无到有创建三个进程,然后自始至终使用这三个进程去执行所有任务,不会开启其他进程

1 Pool([numprocess  [,initializer [, initargs]]]):创建进程池 

    参数介绍:

1 numprocess:要创建的进程数,如果省略,将默认使用cpu_count()的值
2 initializer:是每个工作进程启动时要执行的可调用对象,默认为None
3 initargs:是要传给initializer的参数组

 方法介绍:

    主要方法:python全栈开发从入门到放弃之socket并发编程多进程python全栈开发从入门到放弃之socket并发编程多进程
1 p.apply(func [, args [, kwargs]]):在一个池工作进程中执行func(*args,**kwargs),然后返回结果。需要强调的是:此操作并不会在所有池工作进程中并执行func函数。如果要通过不同参数并发地执行func函数,必须从不同线程调用p.apply()函数或者使用p.apply_async()
2 p.apply_async(func [, args [, kwargs]]):在一个池工作进程中执行func(*args,**kwargs),然后返回结果。此方法的结果是AsyncResult类的实例,callback是可调用对象,接收输入参数。当func的结果变为可用时,将理解传递给callback。callback禁止执行任何阻塞操作,否则将接收其他异步操作中的结果。
3
4 p.close():关闭进程池,防止进一步操作。如果所有操作持续挂起,它们将在工作进程终止前完成
5 P.jion():等待所有工作进程退出。此方法只能在close()或teminate()之后调用
主要方法
其他方法:

python全栈开发从入门到放弃之socket并发编程多进程python全栈开发从入门到放弃之socket并发编程多进程
方法apply_async()和map_async()的返回值是AsyncResul的实例obj。实例具有以下方法
obj.get():返回结果,如果有必要则等待结果到达。timeout是可选的。如果在指定时间内还没有到达,将引发一场。如果远程操作中引发了异常,它将在调用此方法时再次被引发。
obj.ready():如果调用完成,返回True
obj.successful():如果调用完成且没有引发异常,返回True,如果在结果就绪之前调用此方法,引发异常
obj.wait([timeout]):等待结果变为可用。
obj.terminate():立即终止所有工作进程,同时不执行任何清理或结束任何挂起工作。如果p被垃圾回收,将自动调用此函
其他方法
进程池的应用python全栈开发从入门到放弃之socket并发编程多进程python全栈开发从入门到放弃之socket并发编程多进程
from multiprocessing import Pool
import os,time,random
def task(n):
print('<%s> is running' %os.getpid())
time.sleep(random.randint(
1,3))
return n**2
if __name__ == '__main__':
print(os.cpu_count()) #查看CPU是几核的
p=Pool(4) #只能四个进程才能运行,如果后面还有连接则只会在这四个先前的进程号使用
for i in range(1,7):
res
=p.apply(task,args=(i,)) #同步运行,阻塞、直到本次任务执行完毕拿到res
print('本次任务的结果:%s' %res)

'''
输出结果:
4
<3688> is running
本次任务的结果:1
<7212> is running
本次任务的结果:4
<3576> is running
本次任务的结果:9
<1608> is running
本次任务的结果:16
#可以看到前面创建了4个进程,如果有新的进程只是从原先的进程中使用
<3688> is running
本次任务的结果:25
<7212> is running
本次任务的结果:36
'''
同步apply
python全栈开发从入门到放弃之socket并发编程多进程python全栈开发从入门到放弃之socket并发编程多进程
import os,time,random
def task(n):
print('<%s> is running' %os.getpid())
time.sleep(random.randint(
1,3))
return n**2
if __name__ == '__main__':
print(os.cpu_count()) #查看CPU是几核的
p=Pool(4) #只能四个进程才能运行,如果后面还有连接则只会在这四个先前的进程号使用
obj_l=[]
for i in range(1,21):
obj
=p.apply_async(task,args=(i,)) #同步运行,阻塞、直到本次任务执行完毕拿到obj
obj_l.append(obj)
p.close()
#禁止往进程池内再添加任务
p.join()
print('')
for obj in obj_l:
print('本次任务的结果:%s'%obj.get()) #需要注意如果不.get()的话是拿不到返回值的

#异步 先把进程都发过去,之后不管了,然后在给进程计算
'''
4
<2532> is running
<7088> is running
<5304> is running
<1052> is running
<5304> is running
<1052> is running
<2532> is running
<1052> is running
<2532> is running
<7088> is running
<1052> is running
<2532> is running
<5304> is running
<7088> is running
<5304> is running
<7088> is running
<1052> is running
<2532> is running
<2532> is running
<7088> is running

本次任务的结果:1
本次任务的结果:4
本次任务的结果:9
本次任务的结果:16
本次任务的结果:25
本次任务的结果:36
本次任务的结果:49
本次任务的结果:64
本次任务的结果:81
本次任务的结果:100
本次任务的结果:121
本次任务的结果:144
本次任务的结果:169
本次任务的结果:196
本次任务的结果:225
本次任务的结果:256
本次任务的结果:289
本次任务的结果:324
本次任务的结果:361
本次任务的结果:400
'''
apply_async
python全栈开发从入门到放弃之socket并发编程多进程python全栈开发从入门到放弃之socket并发编程多进程
#一:使用进程池(非阻塞,apply_async)
#
coding: utf-8
from multiprocessing import Process,Pool
import time

def func(msg):
print( "msg:", msg)
time.sleep(
1)
return msg

if __name__ == "__main__":
pool
= Pool(processes = 3)
res_l
=[]
for i in range(10):
msg
= "hello %d" %(i)
res
=pool.apply_async(func, (msg, )) #维持执行的进程总数为processes,当一个进程执行完毕后会添加新的进程进去
res_l.append(res)
print("==============================>") #没有后面的join,或get,则程序整体结束,进程池中的任务还没来得及全部执行完也都跟着主进程一起结束了

pool.close()
#关闭进程池,防止进一步操作。如果所有操作持续挂起,它们将在工作进程终止前完成
pool.join() #调用join之前,先调用close函数,否则会出错。执行完close后不会有新的进程加入到pool,join函数等待所有子进程结束

print(res_l) #看到的是<multiprocessing.pool.ApplyResult object at 0x10357c4e0>对象组成的列表,而非最终的结果,但这一步是在join后执行的,证明结果已经计算完毕,剩下的事情就是调用每个对象下的get方法去获取结果
for i in res_l:
print(i.get()) #使用get来获取apply_aync的结果,如果是apply,则没有get方法,因为apply是同步执行,立刻获取结果,也根本无需get

#二:使用进程池(阻塞,apply)
#
coding: utf-8
from multiprocessing import Process,Pool
import time

def func(msg):
print( "msg:", msg)
time.sleep(
0.1)
return msg

if __name__ == "__main__":
pool
= Pool(processes = 3)
res_l
=[]
for i in range(10):
msg
= "hello %d" %(i)
res
=pool.apply(func, (msg, )) #维持执行的进程总数为processes,当一个进程执行完毕后会添加新的进程进去
res_l.append(res) #同步执行,即执行完一个拿到结果,再去执行另外一个
print("==============================>")
pool.close()
pool.join()
#调用join之前,先调用close函数,否则会出错。执行完close后不会有新的进程加入到pool,join函数等待所有子进程结束

print(res_l) #看到的就是最终的结果组成的列表
for i in res_l: #apply是同步的,所以直接得到结果,没有get()方法
print(i)
apply和apply_rsync的区别

练习:tcp套接字连接

python全栈开发从入门到放弃之socket并发编程多进程python全栈开发从入门到放弃之socket并发编程多进程
#Pool内的进程数默认是cpu核数,假设为4(查看方法os.cpu_count())
#
开启6个客户端,会发现2个客户端处于等待状态
#
在每个进程内查看pid,会发现pid使用为4个,即多个客户端公用4个进程
from socket import *
from multiprocessing import Pool
import os

server
=socket(AF_INET,SOCK_STREAM)
server.setsockopt(SOL_SOCKET,SO_REUSEADDR,
1)
server.bind((
'127.0.0.1',8080))
server.listen(
5)

def talk(conn,client_addr):
print('进程pid: %s' %os.getpid())
while True:
try:
msg
=conn.recv(1024)
if not msg:break
conn.send(msg.upper())
except Exception:
break

if __name__ == '__main__':
p
=Pool()
while True:
conn,client_addr
=server.accept()
p.apply_async(talk,args
=(conn,client_addr))
# p.apply(talk,args=(conn,client_addr)) #同步的话,则同一时间只有一个客户端能访问
server
python全栈开发从入门到放弃之socket并发编程多进程python全栈开发从入门到放弃之socket并发编程多进程
from socket import *

client
=socket(AF_INET,SOCK_STREAM)
client.connect((
'127.0.0.1',8080))


while True:
msg
=input('>>: ').strip()
if not msg:continue

client.send(msg.encode(
'utf-8'))
msg
=client.recv(1024)
print(msg.decode('utf-8'))
Client

发现:并发开启多个客户端,服务端同一时间只有3个不同的pid,干掉一个客户端,另外一个客户端才会进来,被3个进程之一处理

回调函数

需要回调函数的场景:进程池中任何一个任务一旦处理完了,就立即告知主进程:我好了额,你可以处理我的结果了。主进程则调用一个函数去处理该结果,该函数即回调函数

我们可以把耗时间(阻塞)的任务放到进程池中,然后指定回调函数(主进程负责执行),这样主进程在执行回调函数时就省去了I/O的过程,直接拿到的是任务的结果。

python全栈开发从入门到放弃之socket并发编程多进程python全栈开发从入门到放弃之socket并发编程多进程
#pip3 install requests
from multiprocessing import Pool
import requests
import os
import time
def get_page(url):
print('<%s> is getting [%s]' %(os.getpid(),url))
response
=requests.get(url)
time.sleep(
2)
print('<%s> is done [%s]' % (os.getpid(), url))
return {'url':url,'text':response.text}
def parse_page(res):
print('<%s> parse [%s]' %(os.getpid(),res['url']))
with open(
'db.txt','a') as f:
parse_res
='url:%s size:%s\n' %(res['url'],len(res['text']))
f.write(parse_res)
if __name__ == '__main__':
p
=Pool(4)
urls
= [
'https://www.baidu.com',
'http://www.openstack.org',
'https://www.python.org',
'https://help.github.com/',
'http://www.sina.com.cn/'
]
for url in urls:
p.apply_async(get_page,args
=(url,),callback=parse_page)
p.close()
p.join()
print('',os.getpid())

'''
输出结果:
<5664> is getting [https://www.baidu.com]
<8912> is getting [http://www.openstack.org]
<7712> is getting [https://www.python.org]
<2608> is getting [https://help.github.com/]
<5664> is done [https://www.baidu.com]
<5664> is getting [http://www.sina.com.cn/]
<2044> parse [https://www.baidu.com]
<7712> is done [https://www.python.org]
<2044> parse [https://www.python.org]
<2608> is done [https://help.github.com/]
<2044> parse [https://help.github.com/]
<8912> is done [http://www.openstack.org]
<2044> parse [http://www.openstack.org]
<5664> is done [http://www.sina.com.cn/]
<2044> parse [http://www.sina.com.cn/]
主 2044
'''
View Code
python全栈开发从入门到放弃之socket并发编程多进程python全栈开发从入门到放弃之socket并发编程多进程
from multiprocessing import Pool
import time,random
import requests
import re

def get_page(url,pattern):
response
=requests.get(url)
if response.status_code == 200:
return (response.text,pattern)

def parse_page(info):
page_content,pattern
=info
res
=re.findall(pattern,page_content)
for item in res:
dic
={
'index':item[0],
'title':item[1],
'actor':item[2].strip()[3:],
'time':item[3][5:],
'score':item[4]+item[5]

}
print(dic)
if __name__ == '__main__':
pattern1
=re.compile(r'<dd>.*?board-index.*?>(\d+)<.*?title="(.*?)".*?star.*?>(.*?)<.*?releasetime.*?>(.*?)<.*?integer.*?>(.*?)<.*?fraction.*?>(.*?)<',re.S)

url_dic
={
'http://maoyan.com/board/7':pattern1,
}

p
=Pool()
res_l
=[]
for url,pattern in url_dic.items():
res
=p.apply_async(get_page,args=(url,pattern),callback=parse_page)
res_l.append(res)

for i in res_l:
i.get()

# res=requests.get('http://maoyan.com/board/7')
# print(re.findall(pattern,res.text))
爬虫

如果在主进程中等待进程池中所有任务都执行完毕后,再统一处理结果,则无需回调函数

python全栈开发从入门到放弃之socket并发编程多进程python全栈开发从入门到放弃之socket并发编程多进程
from multiprocessing import Pool
import time,random,os

def work(n):
time.sleep(
1)
return n**2
if __name__ == '__main__':
p
=Pool()

res_l
=[]
for i in range(10):
res
=p.apply_async(work,args=(i,))
res_l.append(res)

p.close()
p.join()
#等待进程池中所有进程执行完毕

nums
=[]
for res in res_l:
nums.append(res.get())
#拿到所有结果
print(nums) #主进程拿到所有的处理结果,可以在主进程中进行统一进行处理
View Code