Python学习笔记整理总结【网络编程】【线程/进程/协程/IO多路模型/select/poll/epoll/selector】

时间:2022-03-05 15:37:23

一、socket(单链接)

1、socket:应用层与TCP/IP协议族通信的中间软件抽象层,它是一组接口。在设计模式中,Socket其实就是一个门面模式,它把复杂的TCP/IP协议族隐藏在Socket接口后面;也有人将socket说成ip+port,ip是用来标识互联网中的一台主机的位置,而port是用来标识这台机器上的一个应用程序,ip地址是配置到网卡上的,而port是应用程序开启的,ip与port的绑定就标识了互联网中独一无二的一个应用程序;而程序的pid是同一台机器上不同进程或者线程的标识。

2、套接字:用于在同一台主机上多个应用程序之间的通讯。套接字有两种(或者称为有两个种族),分别是基于文件型(AF_UNIX)和基于网络型(AF_INET)。

3、基于TCP的套接字(类型一)

工作原理:先从服务器端说起。服务器端先初始化Socket,然后与端口绑定(bind),对端口进行监听(listen),调用accept阻塞,等待客户端连接。在这时如果有个客户端初始化一个Socket,然后连接服务器(connect),如果连接成功,这时客户端与服务器端的连接就建立了。客户端发送数据请求,服务器端接收请求并处理请求,然后把回应数据发送给客户端,客户端读取数据,最后关闭连接,一次交互结束

Python学习笔记整理总结【网络编程】【线程/进程/协程/IO多路模型/select/poll/epoll/selector】

 #!/usr/bin/env python
# -*- coding:utf-8 -*-
# _author_soloLi
import socket #导入socket模块
ip_port = ("127.0.0.1",9999) #设置服务器ip和端口
server = socket.socket() #创建server实例 //声明socket类型同时生成socket对象
server.bind(ip_port) #套接字绑定ip与端口
server.listen(5) #监听连接//允许5个客户端排队
conn,addr = server.accept() #等待客户端连接 // 客户端连接后,返回新的套接字与IP地址
client_data = conn.recv(1024) #接收数据//把接收的数据实例化
#client_data = b'hello'
conn.sendall(client_data.upper()) #把数据发送到客户端 //upper() 字母变成大写
conn.close() #关闭连接

#TCP_server

 #!/usr/bin/env python
# -*- coding:utf-8 -*-
# _author_soloLi
import socket #导入socket模块
ip_port = ("127.0.0.1",9999) #设置服务器ip和端口
client = socket.socket() #创建client实例
client.connect(ip_port) #设置要连接的ip和端口
info = "hello world" #要发送的数据
client.sendall(info.encode("utf-8")) #发送数据// 把str转换为bytes类型
server_data = client.recv(1024) #接收数据
client.close() #关闭连接

#TCP_client

 ① server = socket.socket()
套接字格式:socket(family,type[,protocal]) 使用给定的地址族、套接字类型、协议编号(默认为0)来创建套接字。
参数一:地址簇
  socket.AF_INET IPv4(默认)
  socket.AF_INET6 IPv6
  socket.AF_UNIX 只能够用于单一的Unix系统进程间通信
参数二:类型
  socket.SOCK_STREAM  流式socket , for TCP (默认)
  socket.SOCK_DGRAM   数据报式socket , for UDP
  socket.SOCK_RAW 原始套接字,普通的套接字无法处理ICMP、IGMP等网络报文,而SOCK_RAW可以;其次,SOCK_RAW也可以处理特殊的IPv4报文;此外,利用原始套接字,可以通过IP_HDRINCL套接字选项由用户构造IP头。
  socket.SOCK_RDM 是一种可靠的UDP形式,即保证交付数据报但不保证顺序。SOCK_RAM用来提供对原始协议的低级访问,在需要执行某些特殊操作时使用,如发送ICMP报文。SOCK_RAM通常仅限于高级用户或管理员运行的程序使用。
  socket.SOCK_SEQPACKET 可靠的连续数据包服务
参数三:协议
  0  (默认)与特定的地址家族相关的协议,如果是 0 ,则系统就会根据地址格式和套接类别,自动选择一个合适的协议
#创建TCP Socket:server=socket.socket(socket.AF_INET,socket.SOCK_STREAM)
#创建UDP Socket:server=socket.socket(socket.AF_INET,socket.SOCK_DGRAM)
注意点:
1)TCP发送数据时,已建立好TCP连接,所以不需要指定地址。UDP是面向无连接的,每次发送要指定是发给谁。
2)服务端与客户端不能直接发送列表,元组,字典。需要字符串化repr(data)
② server.bind(address)
  将套接字绑定到地址。address地址的格式取决于地址族。在AF_INET下,以元组(host,port)的形式表示地址
③ server.listen(backlog)
  开始监听传入连接。backlog指定在拒绝连接之前,可以挂起的最大连接数量。该值至少为1,大部分应用程序设为5就可以了。backlog等于5,表示内核已经接到了连接请求,但服务器还没有调用accept进行处理的连接个数最大为5,这个值不能无限大,因为要在内核中维护连接队列
④ server.setblocking(bool)
  是否阻塞(默认True),如果设置False,那么accept和recv时一旦无数据,则报错
⑤ conn,addr = server.accept() 
  接受连接并返回(conn,address),其中conn是新的套接字对象,可以用来接收和发送数据。address是连接客户端的地址。接收TCP 客户的连接(阻塞式)等待连接的到来
⑥ client.connect(address)
  连接到address处的套接字。一般address的格式为元组(hostname,port),如果连接出错,返回socket.error错误。
⑦ client.connect_ex(address)
  同上,只不过会有返回值,连接成功时返回 0 ,连接失败时候返回编码,例如:10061
⑧ client.close()
  关闭套接字
⑨ client.recv(bufsize[,flag])
  接受套接字的数据。数据以字符串形式返回,bufsize指定最多可以接收的数量。flag提供有关消息的其他信息,通常可以忽略
⑩ client.recvfrom(bufsize[.flag])
  与recv()类似,但返回值是(data,address)。其中data是包含接收数据的字符串,address是发送数据的套接字地址
⑪ server.send(string[,flag])
  发送TCP数据;将string中的数据发送到连接的套接字。返回值是要发送的字节数量,该数量可能小于string的字节大小。即:可能未将指定内容全部发送
⑫ server.sendall(string[,flag])  
  完整发送TCP数据;将string中的数据发送到连接的套接字,但在返回之前会尝试发送所有数据。成功返回None,失败则抛出异常;内部通过递归调用send,将所有内容发送出去
⑬ server.sendto(string[,flag],address)
  将数据发送到套接字,address是形式为(ipaddr,port)的元组,指定远程地址。返回值是发送的字节数。该函数主要用于UDP协议
⑭ sk.settimeout(timeout)
  设置套接字操作的超时期,timeout是一个浮点数,单位是秒。值为None表示没有超时期。一般,超时期应该在刚创建套接字时设置,因为它们可能用于连接的操作(如 client 连接最多等待5s )
⑮ sk.getpeername()
  返回连接套接字的远程地址。返回值通常是元组(ipaddr,port)
⑯ sk.getsockname()
  返回套接字自己的地址。通常是一个元组(ipaddr,port)
⑰ sk.fileno()
套接字的文件描述符 ###服务端套接字函数###
s.bind() #绑定(主机,端口号)到套接字
s.listen() #开始TCP监听
s.accept() #被动接受TCP客户的连接,(阻塞式)等待连接的到来 ###客户端套接字函数###
s.connect() #主动初始化TCP服务器连接
s.connect_ex() #connect()函数的扩展版本,出错时返回出错码,而不是抛出异常 ###公共用途的套接字函数###
s.recv() #接收TCP数据
s.send() #发送TCP数据(send在待发送数据量大于己端缓存区剩余空间时,数据丢失,不会发完)
s.sendall() #发送完整的TCP数据(本质就是循环调用send,sendall在待发送数据量大于己端缓存区剩余空间时,数据不丢失,循环调用send直到发完)
s.recvfrom() #接收UDP数据
s.sendto() #发送UDP数据
s.getpeername() #连接到当前套接字的远端的地址
s.getsockname() #当前套接字的地址
s.getsockopt() #返回指定套接字的参数
s.setsockopt() #设置指定套接字的参数
s.close() #关闭套接字 ###面向锁的套接字方法###
s.setblocking() #设置套接字的阻塞与非阻塞模式
s.settimeout() #设置阻塞套接字操作的超时时间
s.gettimeout() #得到阻塞套接字操作的超时时间 ###面向文件的套接字的函数###
s.fileno() #套接字的文件描述符
s.makefile() #创建一个与该套接字相关的文件

#参数功能解释

4、基于UDP的套接字(类型二)
udp是无链接的,先启动哪一端都不会报错且可以同时多个客户端去跟服务端通信

 #UDP server
ss = socket() #创建一个服务器的套接字
ss.bind() #绑定服务器套接字
inf_loop: #服务器无限循环
cs = ss.recvfrom()/ss.sendto() # 对话(接收与发送)
ss.close() # 关闭服务器套接字 #UDP client
cs = socket() # 创建客户套接字
comm_loop: # 通讯循环
cs.sendto()/cs.recvfrom() # 对话(发送/接收)
cs.close() # 关闭客户套接字
 #!/usr/bin/env python
# -*- coding:utf-8 -*-
# _author_soloLi
import socket
ip_port=('127.0.0.1',9000)
BUFSIZE=1024
udp_server_client=socket.socket(socket.AF_INET,socket.SOCK_DGRAM)
udp_server_client.bind(ip_port) while True:
msg,addr=udp_server_client.recvfrom(BUFSIZE)
print(msg,addr)
udp_server_client.sendto(msg.upper(),addr)

#UDP_server

 #!/usr/bin/env python
# -*- coding:utf-8 -*-
# _author_soloLi
import socket
ip_port=('127.0.0.1',9000)
BUFSIZE=1024
udp_server_client=socket.socket(socket.AF_INET,socket.SOCK_DGRAM) while True:
msg=input('>>: ').strip()
if not msg:continue
udp_server_client.sendto(msg.encode('utf-8'),ip_port)
back_msg,addr=udp_server_client.recvfrom(BUFSIZE)
print(back_msg.decode('utf-8'),addr)
udp_client_socket.close()

#UDP_client

##qq聊天(由于udp无连接,所以可以同时多个客户端去跟服务端通信)##

 #!/usr/bin/env python
# -*- coding:utf-8 -*-
# _author_soloLi
import socket
ip_port=('127.0.0.1',8081)
udp_server_sock=socket.socket(socket.AF_INET,socket.SOCK_DGRAM) #买手机
udp_server_sock.bind(ip_port) while True:
qq_msg,addr=udp_server_sock.recvfrom(1024)
print('来自[%s:%s]的一条消息:\033[1;44m%s\033[0m' %(addr[0],addr[1],qq_msg.decode('utf-8')))
back_msg=input('回复消息: ').strip() udp_server_sock.sendto(back_msg.encode('utf-8'),addr)

#UDP_server

 #!/usr/bin/env python
# -*- coding:utf-8 -*-
# _author_soloLi
import socket
BUFSIZE=1024
udp_client_socket=socket.socket(socket.AF_INET,socket.SOCK_DGRAM) qq_name_dic={
'狗哥alex':('127.0.0.1',8081),
'瞎驴':('127.0.0.1',8081),
'一棵树':('127.0.0.1',8081),
'武大郎':('127.0.0.1',8081),
} while True:
qq_name=input('请选择聊天对象: ').strip()
while True:
msg=input('请输入消息,回车发送: ').strip()
if msg == 'quit':break
if not msg or not qq_name or qq_name not in qq_name_dic:continue
udp_client_socket.sendto(msg.encode('utf-8'),qq_name_dic[qq_name]) back_msg,addr=udp_client_socket.recvfrom(BUFSIZE)
print('来自[%s:%s]的一条消息:\033[1;44m%s\033[0m' %(addr[0],addr[1],back_msg.decode('utf-8'))) udp_client_socket.close()

#UDP_client1

 #!/usr/bin/env python
# -*- coding:utf-8 -*-
# _author_soloLi
import socket
BUFSIZE=1024
udp_client_socket=socket.socket(socket.AF_INET,socket.SOCK_DGRAM) qq_name_dic={
'狗哥alex':('127.0.0.1',8081),
'瞎驴':('127.0.0.1',8081),
'一棵树':('127.0.0.1',8081),
'武大郎':('127.0.0.1',8081),
} while True:
qq_name=input('请选择聊天对象: ').strip()
while True:
msg=input('请输入消息,回车发送: ').strip()
if msg == 'quit':break
if not msg or not qq_name or qq_name not in qq_name_dic:continue
udp_client_socket.sendto(msg.encode('utf-8'),qq_name_dic[qq_name]) back_msg,addr=udp_client_socket.recvfrom(BUFSIZE)
print('来自[%s:%s]的一条消息:\033[1;44m%s\033[0m' %(addr[0],addr[1],back_msg.decode('utf-8'))) udp_client_socket.close()

#UDP_client2

5、粘包现象:①发送端需要等缓冲区满才发送出去,造成粘包(发送数据时间间隔很短,数据了很小,TCP有一个Nagle算法会把数据合到一起,产生粘包)
                       ②接收方不及时接收缓冲区的包,造成多个包接收(客户端发送了一段数据,服务端只收了一小部分,服务端下次再收的时候还是从缓冲区拿上次遗留的数据,产生粘包)

原因:接收方不知道消息之间的界限,不知道一次性提取多少字节的数据。

TCP有粘包现象,UDP永远不会粘包:tcp是基于数据流的,收发两端都要有一一成对的socket,TCP采用Nagle优化算法消息进行消息处理机制,面向流的通信是无消息保护边界的。而udp是基于数据报的,支持的是一对多的模式,套接字缓冲区采用了链式结构来记录每一个到达的UDP包,在每个UDP包中添加了消息头(消息来源地址,端口等信息),面向消息的通信是有消息保护边界的。

tcp是可靠传输,udp是不可靠传输:tcp在数据传输时,发送端先把数据发送到自己的缓存中,然后协议控制将缓存中的数据发往对应端,对应端返回一个ack=1,发送端则清理缓存中的数据,对端返回ack=0,则重新发送数据,所以tcp是可靠的;而udp发送数据,对端是不会返回确认信息的,因此不可靠。

解决粘包:问题的根源在于,接收端不知道发送端将要传送的字节流的长度,所以解决粘包的方法就是围绕,如何让发送端在发送数据前,把自己将要发送的字节流总大小让接收端知晓,然后接收端来一个死循环接收完所有数据。

第一种解决方案:(low)

 #server端

 #!/usr/bin/env python
# -*- coding:utf-8 -*-
# _author_soloLi
from socket import * #由于 socket 模块中有太多的属性。我们在这里破例使用了'from module import *'语句。使用 'from socket import *',我们就把 socket模块里的所有属性都带到我们的命名空间里了,这样能 大幅减短我们的代码。
import subprocess
ip_port=('127.0.0.1',8080)
back_log=5
buffer_size=1024 server=socket(AF_INET,SOCK_STREAM)
server.bind(ip_port)
server.listen(back_log) while True: #链接循环
conn,addr=server.accept()
print('新的客户端链接',addr)
while True: #通信循环 ##//收数据//##
try:
cmd=conn.recv(buffer_size)
if not cmd:break
print('收到客户端的命令',cmd) #执行命令,得到命令的运行结果cmd_res #subprocess模块提供了一种一致的方法来创建和处理附加进程,与标准库中的其它模块相比,提供了一个更高级的接口。用于替换如下模块:os.system() , os.spawnv() , os和popen2模块中的popen()函数,以及 commands().
res=subprocess.Popen(cmd.decode('utf-8'),shell=True, #解码(bytes->str)
stderr=subprocess.PIPE,
stdout=subprocess.PIPE,
stdin=subprocess.PIPE) err=res.stderr.read()
if err:
cmd_res=err
else:
cmd_res=res.stdout.read() ##编码是以当前所在的系统为准的,如果是windows,那么res.stdout.read()读出的就是GBK编码的,在接收端需要用GBK解码且只能从管道里读一次结果 ##//发数据//##
if not cmd_res:
cmd_res='执行成功'.encode('gbk') #转换编码(gbk->unicode)(转换显示中文的字符串) length=len(cmd_res)
conn.send(str(length).encode('utf-8')) #编码(str->bytes)
client_ready=conn.recv(buffer_size)
if client_ready == b'ready':
conn.send(cmd_res)
except Exception as e:
print(e)
break

TCP_serve

 #!/usr/bin/env python
# -*- coding:utf-8 -*-
# _author_soloLi
from socket import *
ip_port=('127.0.0.1',8080)
back_log=5
buffer_size=1024 client=socket(AF_INET,SOCK_STREAM)
client.connect(ip_port) while True:
cmd=input('>>: ').strip()
if not cmd:continue
if cmd == 'quit':break client.send(cmd.encode('utf-8')) #编码(str->bytes) #解决粘包
length=client.recv(buffer_size)
client.send(b'ready') length=int(length.decode('utf-8')) #解码(bytes->str) recv_size=0
recv_msg=b''
while recv_size < length:
recv_msg += tcp_client.recv(buffer_size)
recv_size=len(recv_msg) # print('命令的执行结果是 ',recv_msg.decode('gbk')) #转换编码(gbk->unicode)(转换显示中文的字符串)
client.close()

TCP_client

low的原因:程序的运行速度远快于网络传输速度,所以在发送一段字节前,先用send去发送该字节流长度,这种方式会放大网络延迟带来的性能损耗

第二种解决方案:(NB)

 #!/usr/bin/env python
# -*- coding:utf-8 -*-
# _author_soloLi
from socket import * #由于 socket 模块中有太多的属性。我们在这里破例使用了'from module import *'语句。使用 'from socket import *',我们就把 socket模块里的所有属性都带到我们的命名空间里了,这样能 大幅减短我们的代码。
import subprocess
ip_port=('127.0.0.1',8080)
back_log=5
buffer_size=1024 server=socket(AF_INET,SOCK_STREAM)
server.bind(ip_port)
server.listen(back_log) while True: #链接循环
conn,addr=server.accept()
print('新的客户端链接',addr)
while True: #通信循环 ##//收数据//##
try:
cmd=conn.recv(buffer_size)
if not cmd:break
print('收到客户端的命令',cmd) #执行命令,得到命令的运行结果cmd_res #subprocess模块提供了一种一致的方法来创建和处理附加进程,与标准库中的其它模块相比,提供了一个更高级的接口。用于替换如下模块:os.system() , os.spawnv() , os和popen2模块中的popen()函数,以及 commands().
res=subprocess.Popen(cmd.decode('utf-8'),shell=True, #解码(bytes->str)
stderr=subprocess.PIPE,
stdout=subprocess.PIPE,
stdin=subprocess.PIPE) err=res.stderr.read()
if err:
cmd_res=err
else:
cmd_res=res.stdout.read() ##编码是以当前所在的系统为准的,如果是windows,那么res.stdout.read()读出的就是GBK编码的,在接收端需要用GBK解码且只能从管道里读一次结果 ##//发数据//##
if not cmd_res:
cmd_res='执行成功'.encode('gbk') #转换编码(gbk->unicode)(转换显示中文的字符串) length=len(cmd_res)
conn.send(str(length).encode('utf-8')) #编码(str->bytes)
client_ready=conn.recv(buffer_size)
if client_ready == b'ready':
conn.send(cmd_res)
except Exception as e:
print(e)
break

TCP_server

 #!/usr/bin/env python
# -*- coding:utf-8 -*-
# _author_soloLi
from socket import *
import struct ##NB##//struct模块可以把一个类型,如数字,转成固定长度的bytes
from functools import partial ##NB##
ip_port=('127.0.0.1',8080)
back_log=5
buffer_size=1024 client=socket(AF_INET,SOCK_STREAM)
client.connect(ip_port) while True:
cmd=input('>>: ').strip()
if not cmd:continue
if cmd == 'quit':break client.send(cmd.encode('utf-8')) #编码(str->bytes) #解决粘包
length_data=tcp_client.recv(4)##NB##为字节流加上自定义固定长度报头,报头中包含字节流长度,
#然后一次send到对端,对端在接收时,先从缓存中取出定长的报头,然后再取真实数据
length=struct.unpack('i',length_data)[0] ##NB##
length=int(length.decode('utf-8')) #解码(bytes->str) recv_size=0
recv_msg=b''
while recv_size < length:
recv_msg += tcp_client.recv(buffer_size)
recv_size=len(recv_msg) # print('命令的执行结果是 ',recv_msg.decode('gbk')) #转换编码(gbk->unicode)(转换显示中文的字符串)
client.close()

TCP_client

第二种方案的引申:(NBST)

 import json,struct
#假设通过客户端上传1T:1073741824000的文件a.txt #为避免粘包,必须自定制报头
header={'file_size':1073741824000,'file_name':'/a/b/c/d/e/a.txt','md5':'8f6fbf8347faa4924a76856701edb0f3'} #1T数据,文件路径和md5值 #为了该报头能传送,需要序列化并且转为bytes
head_bytes=bytes(json.dumps(header),encoding='utf-8') #序列化并转成bytes,用于传输 #为了让客户端知道报头的长度,用struck将报头长度这个数字转成固定长度:4个字节
head_len_bytes=struct.pack('i',len(head_bytes)) #这4个字节里只包含了一个数字,该数字是报头的长度 #客户端开始发送
conn.send(head_len_bytes) #先发报头的长度,4个bytes
conn.send(head_bytes) #再发报头的字节格式
conn.sendall(文件内容) #然后发真实内容的字节格式 #服务端开始接收
head_len_bytes=s.recv(4) #先收报头4个bytes,得到报头长度的字节格式
x=struct.unpack('i',head_len_bytes)[0] #提取报头的长度 head_bytes=s.recv(x) #按照报头长度x,收取报头的bytes格式
header=json.loads(json.dumps(header)) #提取报头 #最后根据报头的内容提取真实的数据,比如
real_data_len=s.recv(header['file_size'])
s.recv(real_data_len)
 #我们可以把报头做成字典,字典里包含将要发送的真实数据的详细信息,然后json序列化,然后用struck将序列化后的数据长度打包成4个字节(4个自己足够用了)
#发送时:
1.先发报头长度
2.再编码报头内容然后发送
3.最后发真实内容 #接收时:
1.先手报头长度,用struct取出来
2.根据取出的长度收取报头内容,然后解码,反序列化
3.从反序列化的结果中取出待取数据的详细信息,然后去取真实的数据内容
 import socket,struct,json
import subprocess
phone=socket.socket(socket.AF_INET,socket.SOCK_STREAM)
phone.setsockopt(socket.SOL_SOCKET,socket.SO_REUSEADDR,1) #就是它,在bind前加 phone.bind(('127.0.0.1',8080)) phone.listen(5) while True:
conn,addr=phone.accept()
while True:
cmd=conn.recv(1024)
if not cmd:break
print('cmd: %s' %cmd) res=subprocess.Popen(cmd.decode('utf-8'),
shell=True,
stdout=subprocess.PIPE,
stderr=subprocess.PIPE)
err=res.stderr.read()
print(err)
if err:
back_msg=err
else:
back_msg=res.stdout.read() headers={'data_size':len(back_msg)}
head_json=json.dumps(headers)
head_json_bytes=bytes(head_json,encoding='utf-8') conn.send(struct.pack('i',len(head_json_bytes))) #先发报头的长度
conn.send(head_json_bytes) #再发报头
conn.sendall(back_msg) #在发真实的内容 conn.close() 服务端:定制稍微复杂一点的报头

TCP_server

 from socket import *
import struct,json ip_port=('127.0.0.1',8080)
client=socket(AF_INET,SOCK_STREAM)
client.connect(ip_port) while True:
cmd=input('>>: ')
if not cmd:continue
client.send(bytes(cmd,encoding='utf-8')) head=client.recv(4)
head_json_len=struct.unpack('i',head)[0]
head_json=json.loads(client.recv(head_json_len).decode('utf-8'))
data_len=head_json['data_size'] recv_size=0
recv_data=b''
while recv_size < data_len:
recv_data+=client.recv(1024)
recv_size+=len(recv_data) print(recv_data.decode('utf-8'))
#print(recv_data.decode('gbk')) #windows默认gbk编码 客户端

TCP_client

二、socketserver(多链接)

基于tcp的套接字,关键就是两个循环,一个链接循环,一个通信循环
socket:收到一个链接后直接进入通信循环,其他链接要等之前的那个链接通信循环结束后才能进入通信循环
socketserver:模块中分两大类:server类(解决链接问题)和request类(解决通信问题)
socketserver模块是标准库中很多服务器框架的基础。内部使用 IO多路复用 以及 “多线程” 和 “多进程” ,从而实现并发处理多个客户端请求的Socket服务端。即:每个客户端请求连接到服务器时,Socket服务端都会在服务器是创建一个“线程”或者“进程” 专门负责处理当前客户端的所有请求。
ThreadingTCPServer(多线程,真并发)实现的Soket服务器内部会为每个client创建一个 “线程”,该线程用来和客户端进行交互。
使用ThreadingTCPServer:
1、创建一个继承自 SocketServer.BaseRequestHandler 的类
2、类中必须定义一个名称为 handle 的方法
3、启动ThreadingTCPServer

 from socket import *
import subprocess
import struct
ip_port=('127.0.0.1',8080)
back_log=5
buffer_size=1024 tcp_server=socket(AF_INET,SOCK_STREAM)
tcp_server.bind(ip_port)
tcp_server.listen(back_log) while True:
conn,addr=tcp_server.accept()
print('新的客户端链接',addr)
while True:
#收
try:
cmd=conn.recv(buffer_size)
if not cmd:break
print('收到客户端的命令',cmd) #执行命令,得到命令的运行结果cmd_res
res=subprocess.Popen(cmd.decode('utf-8'),shell=True,
stderr=subprocess.PIPE,
stdout=subprocess.PIPE,
stdin=subprocess.PIPE)
err=res.stderr.read()
if err:
cmd_res=err
else:
cmd_res=res.stdout.read() #发
if not cmd_res:
cmd_res='执行成功'.encode('gbk') length=len(cmd_res) data_length=struct.pack('i',length)
conn.send(data_length)
conn.send(cmd_res)
except Exception as e:
print(e)
break

#socket_TCP_server

 from socket import *
import struct
from functools import partial
ip_port=('127.0.0.1',8080)
back_log=5
buffer_size=1024 tcp_client=socket(AF_INET,SOCK_STREAM)
tcp_client.connect(ip_port) while True:
cmd=input('>>: ').strip()
if not cmd:continue
if cmd == 'quit':break tcp_client.send(cmd.encode('utf-8')) #解决粘包
length_data=tcp_client.recv(4)
length=struct.unpack('i',length_data)[0] recv_size=0
recv_data=b''
while recv_size < length:
recv_data+=tcp_client.recv(buffer_size)
recv_size=len(recv_data)
print('命令的执行结果是 ',recv_data.decode('gbk'))
tcp_client.close()

#socket_TCP_client1

 from socket import *
import struct
from functools import partial
ip_port=('127.0.0.1',8080)
back_log=5
buffer_size=1024 tcp_client=socket(AF_INET,SOCK_STREAM)
tcp_client.connect(ip_port) while True:
cmd=input('>>: ').strip()
if not cmd:continue
if cmd == 'quit':break tcp_client.send(cmd.encode('utf-8')) #解决粘包
length_data=tcp_client.recv(4)
length=struct.unpack('i',length_data)[0] recv_size=0
recv_data=b''
while recv_size < length:
recv_data+=tcp_client.recv(buffer_size)
recv_size=len(recv_data)
print('命令的执行结果是 ',recv_data.decode('gbk'))
tcp_client.close()

#socket_TCP_client2

 import socketserver

 '''
def __init__(self, request, client_address, server):
self.request = request
self.client_address = client_address
self.server = server
self.setup()
try:
self.handle()
finally:
self.finish() ''' class MyServer(socketserver.BaseRequestHandler): def handle(self):
print('conn is: ',self.request) #conn
print('addr is: ',self.client_address) #addr while True:
try:
#收消息
data=self.request.recv(1024)
if not data:break
print('收到客户端的消息是',data,self.client_address) #发消息
self.request.sendall(data.upper()) except Exception as e:
print(e)
break if __name__ == '__main__':
s=socketserver.ThreadingTCPServer(('127.0.0.1',8080),MyServer) #多线程
# s=socketserver.ForkingTCPServer(('127.0.0.1',8080),MyServer) #多进程 # self.server_address = server_address
# self.RequestHandlerClass = RequestHandlerClass
print(s.server_address)
print(s.RequestHandlerClass)
print(MyServer)
print(s.socket)
print(s.server_address)
s.serve_forever()

#socketserver_TCP_server

 from socket import *
ip_port=('192.168.12.63',8080)
back_log=5
buffer_size=1024 tcp_client=socket(AF_INET,SOCK_STREAM)
tcp_client.connect(ip_port) while True:
msg=input('>>: ').strip()
if not msg:continue
if msg == 'quit':break tcp_client.send(msg.encode('utf-8')) data=tcp_client.recv(buffer_size)
print('收到服务端发来的消息:',data.decode('utf-8')) tcp_client.close()

#socketserver_TCP_client1

 from socket import *
import struct
from functools import partial
ip_port=('192.168.12.63',8080)
back_log=5
buffer_size=1024 tcp_client=socket(AF_INET,SOCK_STREAM)
tcp_client.connect(ip_port) while True:
msg=input('>>: ').strip()
if not msg:continue
if msg == 'quit':break tcp_client.send(msg.encode('utf-8')) data=tcp_client.recv(buffer_size)
print('收到服务端发来的消息:',data.decode('utf-8')) tcp_client.close()

#socketserver_TCP_client2

源码剖析:

server类:

Python学习笔记整理总结【网络编程】【线程/进程/协程/IO多路模型/select/poll/epoll/selector】

request类:

Python学习笔记整理总结【网络编程】【线程/进程/协程/IO多路模型/select/poll/epoll/selector】

继承关系:

Python学习笔记整理总结【网络编程】【线程/进程/协程/IO多路模型/select/poll/epoll/selector】Python学习笔记整理总结【网络编程】【线程/进程/协程/IO多路模型/select/poll/epoll/selector】Python学习笔记整理总结【网络编程】【线程/进程/协程/IO多路模型/select/poll/epoll/selector】

基于TCP的socketserver源码

ftpserver=socketserver.ThreadingTCPServer(('127.0.0.1',8080),FtpServer)
ftpserver.serve_forever()

查找属性的顺序:ThreadingTCPServer->ThreadingMixIn->TCPServer->BaseServer
  1、实例化得到ftpserver,先找类ThreadingTCPServer的__init__,在TCPServer中找到,进而执行server_bind,server_active
  2、找ftpserver下的serve_forever,在BaseServer中找到,进而执行self._handle_request_noblock(),该方法同样是在BaseServer中
  3、执行self._handle_request_noblock()进而执行request, client_address = self.get_request()(就是TCPServer中的self.socket.accept()),然后执行self.process_request(request, client_address)

  4、在ThreadingMixIn中找到process_request,开启多线程应对并发,进而执行process_request_thread,执行self.finish_request(request, client_address)

  5、上述四部分完成了链接循环,本部分开始进入处理通讯部分,在BaseServer中找到finish_request,触发我们自己定义的类的实例化,去找__init__方法,而我们自己定义的类没有该方法,则去它的父类也就是BaseRequestHandler中找....

源码分析总结:

基于tcp的socketserver我们自己定义的类中的
  1、self.server即套接字对象
    2、self.request即一个链接
    3、self.client_address即客户端地址
基于udp的socketserver我们自己定义的类中的
  self.request是一个元组(第一个元素是客户端发来的数据,第二部分是服务端的udp套接字对象),如(b'adsf', <socket.socket fd=200, family=AddressFamily.AF_INET, type=SocketKind.SOCK_DGRAM, proto=0, laddr=('127.0.0.1', 8080)>)
  self.client_address即客户端地址

SocketServer的ThreadingTCPServer之所以可以同时处理请求得益于 select 和 Threading 两个东西,其实本质上就是在服务器端为每一个客户端创建一个线程,当前线程用来处理对应客户端的请求,所以,可以支持同时n个客户端链接(长连接)。

三、线程
线程是操作系统能够进行运算调度的最小单位。它被包含在进程之中,是进程中的实际运作单位。一条线程指的是进程中一个单一顺序的控制流,一个进程中可以并发多个线程,每条线程并行执行不同的任务

1、threading模块:建立在thread 模块之上。thread模块以低级、原始的方式来处理和控制线程,而threading 模块通过对thread进行二次封装,提供了更方便的api来处理线程。
线程创建有2种方式:
①直接调用(主流写法)

 import  threading,time
def run(n): #定义每个线程要运行的函数
    print("test...",n)
    time.sleep(2)
if __name__ == '__main__':
    t1 = threading.Thread(target=run,args=("t1",)) #生成一个线程实例 //要加“,”号
    t2 = threading.Thread(target=run,args=("t2",))  #生成另一个线程实例
    # 两个同时执行,然后等待两秒程序结束
    t1.start()#启动线程
    t2.start()#启动另一个线程
print(t1.getName()) #获取线程名
print(t2.getName())
# 程序输出
# test... t1
# test... t2

②继承式调用(非主流写法)(了解)

 import threading,time
class MyThread(threading.Thread):
    def __init__(self,num):
       # threading.Thread.__init__(self)
        super(MyThread,self).__init__()
        self.num =num
    def run(self):#定义每个线程要运行的函数
        print("running on number:%s" %self.num)
        time.sleep(2)
if __name__ == '__main__':
    # 两个同时执行,然后等待两秒程序结束
    t1 = MyThread(1)
    t2 = MyThread(2)
    t1.start()
    t2.start()
# 程序输出
# running on number:1
# running on number:2

2、join(等待线程):等待线程执行完后,其他线程再继续执行(串行)

 import  threading,time
def run(n,sleep_time):
    print("test...",n)
    time.sleep(sleep_time)
    print("test...done", n)
if __name__ == '__main__':
    t1 = threading.Thread(target=run,args=("t1",2))
    t2 = threading.Thread(target=run,args=("t2",3)
    # 两个同时执行,然后等待t1执行完成后,主线程和子线程再开始执行
    t1.start()
    t2.start()
    t1.join()   # 等待t1
    print("main thread")
# 程序输出
# test... t1
# test... t2
# test...done t1
# main thread
# test...done t2

3、Daemon(守护线程):守护进程,主程序执行完毕时,守护线程会同时退出,不管是否执行完任务

 import threading,time
def run(n):
    print('[%s]------running----\n' % n)
    time.sleep(2)
    print('--done--')
def main():
    for i in range(5):
        t = threading.Thread(target=run, args=[i, ])
        t.start()
        t.join(1)
        print('starting thread', t.getName())
m = threading.Thread(target=main, args=[])
m.setDaemon(True)  # 将main线程设置为Daemon线程,它做为程序主线程的守护线程,当主线程退出时,
                    # m线程也会退出,由m启动的其它子线程会同时退出,不管是否执行完任务
m.start() #注意:setDaemon一定在start之前设置
m.join(timeout=2)
print("---main thread done----")
# 程序输出
# [0]------running----
# starting thread Thread-2
# [1]------running----
# --done--
# ---main thread done----
 其它方法
# run(): 线程被cpu调度后自动执行线程对象的run方法
# start():启动线程活动。
# isAlive(): 返回线程是否活动的。
# getName(): 返回线程名。
# setName(): 设置线程名。 threading模块提供的一些方法:
# threading.currentThread(): 返回当前的线程变量。
# threading.enumerate(): 返回一个包含正在运行的线程的list。正在运行指线程启动后、结束前,不包括启动前和终止后的线程。
# threading.activeCount(): 返回正在运行的线程数量,与len(threading.enumerate())有相同的结果。

#一些方法

4、Mutex(同步锁)(互斥锁):由于线程之间是进行随机调度,并且每个线程可能只执行n条执行之后,当多个线程同时修改同一条数据时可能会出现脏数据,所以,出现了线程锁 - 同一时刻允许一个线程执行操作。(*注:不要在3.x上运行,不知为什么,3.x上的结果总是正确的,可能是自动加了锁)

 import time
import threading
def addNum():
    global num   # 在每个线程中都获取这个全局变量
    print('--get num:', num)
    time.sleep(1)
    lock.acquire()  # //修改数据前加锁//
    num -= 1   # 对此公共变量进行-1操作
    lock.release()  # //修改后释放//
num = 100   # 设定一个共享变量
thread_list = []
lock = threading.Lock()  # //生成全局锁//
for i in range(100):
    t = threading.Thread(target=addNum)
    t.start()
    thread_list.append(t)
for t in thread_list:   # 等待所有线程执行完毕
    t.join()
print('final num:', num)

注:GIL,无论启多少个线程,你有多少个cpu, Python在执行的时候在同一时刻只允许一个线程运行Python学习笔记整理总结【网络编程】【线程/进程/协程/IO多路模型/select/poll/epoll/selector】

5、死锁:在线程间共享多个资源的时候,如果两个线程分别占有一部分资源并且同时等待对方的资源,就会造成死锁
RLock(递归锁:解决死锁;为了支持在同一线程中多次请求同一资源,python提供了“可重入锁”:threading.RLock。RLock内部维护着一个Lock和一个counter变量,counter记录了acquire的次数,从而使得资源可以被多次acquire。直到一个线程所有的acquire都被release,其他的线程才能获得资源。

 import threading, time

 def run1():
    print("grab the first part data")
    lock.acquire()
    global num
    num += 1
    lock.release()
    return num def run2():
    print("grab the second part data")
    lock.acquire()
    global num2
    num2 += 1
    lock.release()
    return num2 def run3():
    lock.acquire()
    res = run1()
    print('--------between run1 and run2-----')
    res2 = run2()
    lock.release()
    print(res, res2) if __name__ == '__main__':
    num, num2 = 0, 0
    lock = threading.RLock()
    for i in range(10):
        t = threading.Thread(target=run3)
        t.start() while threading.active_count() != 1:
    print(threading.active_count())
else:
    print('----all threads done---')
    print(num, num2)

6、Semaphore (信号量:Mutex 同时只允许一个线程更改数据,而Semaphore是同时允许一定数量的线程更改数据 ,比如厕所有3个坑,那最多只允许3个人上厕所,后面的人只能等里面有人出来了才能再进去。

信号量用来控制线程并发数的,BoundedSemaphore或Semaphore管理一个内置的计数器,每当调用acquire()时-1,调用release()时+1;计数器不能小于0,当计数器为 0时,acquire()将阻塞线程至同步锁定状态,直到其他线程调用release(); BoundedSemaphore与Semaphore的唯一区别在于前者将在调用release()时检查计数 器的值是否超过了计数器的初始值,如果超过了将抛出一个异常。

 import threading, time
def run(n):
    semaphore.acquire() ###
    time.sleep(1)
    print("run the thread: %s\n" % n)
    semaphore.release() ###
if __name__ == '__main__':
    num = 0
    semaphore = threading.BoundedSemaphore(5)  # 最多允许5个线程同时运行
    for i in range(20):
        t = threading.Thread(target=run, args=(i,))
        t.start()
while threading.active_count() != 1:
    pass  # print threading.active_count()
else:
    print('----all threads done---')
    print(num)

7、Event(事件):实现两个或多个线程间的交互
下面是一个红绿灯的例子,即起动一个线程做交通指挥灯,生成几个线程做车辆,车辆行驶按红灯停,绿灯行的规则。

 import threading,time

 def light():
count = 0
while True:
if count < 10: #红灯
print("\033[41;1m红灯\033[0m",10-count)
elif count >= 10 and count < 30: #绿灯
event.set() # 设置标志位
print("\033[42;1m绿灯\033[0m",30-count)
else:
event.clear() #把标志位清空
count = 0
time.sleep(1)
count +=1 def car(n):
while True:
if event.is_set(): #检测是否有标志位
print("\033[32;0m[%s]在路上飞奔.....\033[0m"%n)
else:
print("\033[31;0m[%s]等红灯等的花都谢了.....\033[0m" % n)
time.sleep(1) if __name__ == "__main__":
event = threading.Event() light = threading.Thread(target=light)
light.start() car = threading.Thread(target=car,args=("tesla",))
car.start()

8、queue(队列)-- 多线程利器:实现解耦、队列;先进先出,后进后出(当get不到数据时,会一直卡着等待数据)

列表是不安全的数据结构

 import threading,time

 li=[1,2,3,4,5]

 def pri():
while li:
a=li[-1]
print(a)
time.sleep(1)
try:
li.remove(a)
except Exception as e:
print('----',a,e) t1=threading.Thread(target=pri,args=())
t1.start()
t2=threading.Thread(target=pri,args=())
t2.start()
######queue列队类的方法#######

#创建一个“队列”对象
①import Queue
②q = Queue.Queue(maxsize = 10)
③Queue.Queue类即是一个队列的同步实现。队列长度可为无限或者有限。可通过Queue的构造函数的可选参数maxsize来设定队列长度。如果maxsize小于1就表示队列长度无限。 #将一个值放入队列中
①q.put(10)
调用队列对象的put()方法在队尾插入一个项目。put()有两个参数,第一个item为必需的,为插入项目的值;第二个block为可选参数,默认为
1。如果队列当前为空且block为1,put()方法就使调用线程暂停,直到空出一个数据单元。如果block为0,put方法将引发Full异常。 #将一个值从队列中取出
①q.get()调用队列对象的get()方法从队头删除并返回一个项目。可选参数为block,默认为True。如果队列为空且block为True,
②get()就使调用线程暂停,直至有项目可用。如果队列为空且block为False,队列将引发Empty异常。 #Python Queue模块有三种队列及构造函数:
①Python Queue模块的FIFO队列先进先出。 class queue.Queue(maxsize)
②LIFO类似于堆,即先进后出。 class queue.LifoQueue(maxsize)
③还有一种是优先级队列级别越低越先出来。 class queue.PriorityQueue(maxsize) #此包中的常用方法(q = Queue.Queue()):
①q.qsize() 返回队列的大小
②q.empty() 如果队列为空,返回True,反之False
③q.full() 如果队列满了,返回True,反之False
④q.full 与 maxsize 大小对应
⑤q.get([block[, timeout]]) 获取队列,timeout等待时间
⑥q.get_nowait() 相当q.get(False) 非阻塞
⑦q.put(item) 写入队列,timeout等待时间
⑧q.put_nowait(item) 相当q.put(item, False)
⑨q.task_done() 在完成一项工作之后,q.task_done() 函数向任务已经完成的队列发送一个信号
⑩q.join() 实际上意味着等到队列为空,再执行别的操作
 import queue

 q = queue.Queue()
for i in range(10):
q.put(i) for t in range(10):
print(q.get()) #
#
#
#
#
#
#
#
#
#

#一个简单的例子

 ##为什么要使用生产者和消费者模式?
在线程世界里,生产者就是生产数据的线程,消费者就是消费数据的线程。在多线程开发当中,如果生产者处理速度很快,而消费者处理速度很慢,那么生产者就必须等待消费者处理完,才能继续生产数据。同样的道理,如果消费者的处理能力大于生产者,那么消费者就必须等待生产者。 ##什么是生产者消费者模式?
生产者消费者模式是通过一个容器来解决生产者和消费者的强耦合问题。生产者和消费者彼此之间不直接通讯,而通过阻塞队列来进行通讯,所以生产者生产完数据之后不用等待消费者处理,直接扔给阻塞队列,消费者不找生产者要数据,而是直接从阻塞队列里取,阻塞队列就相当于一个缓冲区,平衡了生产者和消费者的处理能力。例如:在餐厅,厨师做好菜,不需要直接和客户交流,而是交给前台,而客户去饭菜也不需要不找厨师,直接去前台领取即可,这也是一个结耦的过程。

#生产者消费者模型

 import time,random
import queue,threading q = queue.Queue() def Producer(name):
count = 0
while count <10:
print("making........")
time.sleep(random.randrange(3))
q.put(count)
print('Producer %s has produced %s baozi..' %(name, count))
count +=1
#q.task_done()
#q.join()
print("ok......")
def Consumer(name):
count = 0
while count <10:
time.sleep(random.randrange(4))
if not q.empty():
data = q.get()
#q.task_done()
#q.join()
print(data)
print('\033[32;1mConsumer %s has eat %s baozi...\033[0m' %(name, data))
else:
print("-----no baozi anymore----")
count +=1 p1 = threading.Thread(target=Producer, args=('A',))
c1 = threading.Thread(target=Consumer, args=('B',))
# c2 = threading.Thread(target=Consumer, args=('C',))
# c3 = threading.Thread(target=Consumer, args=('D',))
p1.start()
c1.start()
# c2.start()
# c3.start()

python多线程,不适合cpu密集操作型的任务,适合io操作密集型的任务。

由于GIL的存在,python中的多线程其实并不是真正的多线程(上下文的切换),如果想要充分地使用多核CPU的资源,在python中大部分情况需要使用多进程。

四、进程

进程:一个整体的形式暴露给操作系统管理,里面包含了对各种资源的调用,内存的管理,网络接口的调用等;对各种资源的管理集合

1、multiprocessing(多进程模块)
multiprocessing包是Python中的多进程管理包。与threading.Thread类似,它可以利用multiprocessing.Process对象来创建一个进程。该进程可以运行在Python程序内部编写的函数。该Process对象与Thread对象的用法相同,也有start(), run(), join()的方法。此外multiprocessing包中也有Lock/Event/Semaphore/Condition类 (这些对象可以像多线程那样,通过参数传递给各个进程),用以同步进程,其用法与threading包中的同名类一致。所以,multiprocessing的很大一部份与threading使用同一套API,只不过换到了多进程的情境。

Process类:

#构造方法:
Process([group [, target [, name [, args [, kwargs]]]]])
  group: 线程组,目前还没有实现,库引用中提示必须是None;
  target: 要执行的方法;
  name: 进程名;
  args/kwargs: 要传入方法的参数。
#实例方法:
  is_alive():返回进程是否在运行。
  join([timeout]):阻塞当前上下文环境的进程,直到调用此方法的进程终止或到达指定的timeout(可选参数)。
  start():进程准备就绪,等待CPU调度
  run():strat()调用run方法,如果实例进程时未制定传入target,这star执行t默认run()方法。
  terminate():不管任务是否完成,立即停止工作进程
#属性:
  daemon:和线程的setDeamon功能一样
  name:进程名字。
  pid:进程号。
 import multiprocessing,time
import threading def thread_run():
print("thread id ",threading.get_ident()) #获取当前线程号 def run(name):
time.sleep(1)
print("process----",name)
t = threading.Thread(target=thread_run,) #进程里面可以创建线程
t.start() if __name__ == "__main__": for i in range(10):
p = multiprocessing.Process(target=run,args=("solo",))
p.start()

#创建多进程

 #多进程id

 from multiprocessing import Process
import os def info(title):
print(title)
print('module name:', __name__)
print('parent process:', os.getppid()) # 父进程id
print('process id:', os.getpid()) # 子进程id def f(name):
info('\033[31;1mfunction f\033[0m')
print('hello', name) if __name__ == '__main__':
info('\033[32;1mmain process line\033[0m')
p = Process(target=f, args=('bob',))
p.start()
p.join() # 输出
# main process line
# module name: __main__
# parent process: 7668
# process id: 7496
# function f
# module name: __mp_main__
# parent process: 7496
# process id: 7188
# hello bob

#每个子进程都有父进程启动

2、进程间通信
不同进程间内存是不共享的,要想实现两个进程间的数据交换要用一些中间键。
① Queue
Queue使用方法跟threading里的queue差不多。

注:不是修改同一份数据,而是修改传递的数据。

 from multiprocessing import Process, Queue

 def f(q):
q.put([42, None, 'hello']) if __name__ == '__main__':
q = Queue()
p = Process(target=f, args=(q,))
p.start()
print(q.get()) # 进程p从进程q中拿数据
p.join() #输出 [42, None, 'hello']

#Queue 进程间通信

② Pipe

 import multiprocessing

 def f(conn):
conn.send("hello from child")
conn.close() pass if __name__ == "__main__":
parent_conn,child_conn = multiprocessing.Pipe()
p = multiprocessing.Process(target=f,args=(child_conn,))
p.start()
print(parent_conn.recv())
p.join()
##不是单向,是双向的 #输出 hello from child

#Pipe 进程间通信

③ Manager
Queue和pipe只是实现了数据交互,并没实现数据共享,即一个进程去更改另一个进程的数据。注:manager本身已经有锁了,不需要再加锁。

 from multiprocessing import Process, Manager
import os
def f(d, l):
d[os.getpid()] =os.getpid()
l.append(os.getpid()) #给列表添加进程号
print(l) if __name__ == '__main__':
with Manager() as manager:
d = manager.dict() #{} #生成一个字典,可在多个进程间共享和传递 l = manager.list(range(5))#生成一个列表,可在多个进程间共享和传递
p_list = [] #进程p的空列表
for i in range(10):
p = Process(target=f, args=(d, l))
p.start()
p_list.append(p)
for res in p_list: #等待结果
res.join() print(d)
print(l) #输出
# [0, 1, 2, 3, 4, 7420]
# [0, 1, 2, 3, 4, 7420, 8756]
# [0, 1, 2, 3, 4, 7420, 8756, 9404]
# [0, 1, 2, 3, 4, 7420, 8756, 9404, 8844]
# [0, 1, 2, 3, 4, 7420, 8756, 9404, 8844, 9852]
# [0, 1, 2, 3, 4, 7420, 8756, 9404, 8844, 9852, 9288]
# [0, 1, 2, 3, 4, 7420, 8756, 9404, 8844, 9852, 9288, 6360]
# [0, 1, 2, 3, 4, 7420, 8756, 9404, 8844, 9852, 9288, 6360, 10076]
# [0, 1, 2, 3, 4, 7420, 8756, 9404, 8844, 9852, 9288, 6360, 10076, 1728]
# [0, 1, 2, 3, 4, 7420, 8756, 9404, 8844, 9852, 9288, 6360, 10076, 1728, 4536]
# {1728: 1728, 9852: 9852, 10076: 10076, 6360: 6360, 8756: 8756, 7420: 7420, 9288: 9288, 9404: 9404, 4536: 4536, 8844: 8844}
# [0, 1, 2, 3, 4, 7420, 8756, 9404, 8844, 9852, 9288, 6360, 10076, 1728, 4536]

#manager共享

④ 进程同步
进程独立运行,不涉及多个进程同事修改同一份数据。加锁是为了防止屏幕共享打印的时候出现混乱现象。

 from multiprocessing import Process, Lock

 def f(l, i):
l.acquire()
print('hello world', i)
l.release() if __name__ == '__main__':
lock = Lock()
for num in range(10):
Process(target=f, args=(lock, num)).start()

3、进程池
进程创建子进程的过程,子进程克隆了一遍父进程里的数据,如果父进程占用空间特别大,子进程启动过多就会导致系统空间不够用,所以引出了进程池的概念;进程池内部维护一个进程序列,当使用时,则去进程池中获取一个进程,如果进程池序列中没有可供使用的进进程,那么程序就会等待,直到进程池中有可用进程为止。

进程池中有两个方法:
             ①apply   同步执行(串行)
             ②apply_async  异步执行(并行)

 from  multiprocessing import Process, Pool
import time,os def Foo(i):
time.sleep(2)
print("in process",os.getpid())
return i + 100 def Bar(arg):
print('-->exec done:',arg,os.getpid()) if __name__ == "__main__": #执行此本程序(脚本)以下代码被自动执行本程序(脚本)被当做模块被导入,则以下代码不执行
#freeze_support()
pool = Pool(5) #允许进程池同时放入5个进程
print("主进程:",os.getpid())
for i in range(10):
#pool.apply_async(func=Foo, args=(i,), callback=Bar) #callback回调 执行完func后再执行callback,由程序调用行
pool.apply(func=Foo, args=(i,)) #串行
#pool.apply_async(func=Foo, args=(i,)) #并行
pool.close()
pool.join() # 进程池中进程执行完毕后再关闭,如果注释,那么程序直接关闭。 #输出
#主进程: 733
# in process 736
# in process 735
# in process 737
# in process 738
# in process 734
# -->exec done: 102 733
# -->exec done: 101 733
# -->exec done: 103 733
# -->exec done: 104 733
# -->exec done: 100 733
# in process 734
# in process 737
# in process 735
# in process 736
# in process 738
# -->exec done: 109 733
# -->exec done: 107 733
# -->exec done: 106 733
# -->exec done: 108 733
# -->exec done: 105 733

三、协程

协程是一种用户态的轻量级线程。
协程拥有自己的寄存器上下文和栈。协程调度切换时,将寄存器上下文和栈保存到其他地方,在切回来的时候,恢复先前保存的寄存器上下文和栈。因此:协程能保留上一次调用时的状态(即所有局部状态的一个特定组合),每次过程重入时,就相当于进入上一次调用的状态,换种说法:进入上一次离开时所处逻辑流的位置。
好处:
  ①无需线程上下文切换的开销
  ②无需原子操作锁定及同步的开销
  ③方便切换控制流,简化编程模型
  ④高并发+高扩展性+低成本:一个CPU支持上万的协程都不是问题。所以很适合用于高并发处理。
缺点:
  ①无法利用多核资源:协程的本质是个单线程,它不能同时将 单个CPU 的多个核用上,协程需要和进程配合才能运行在多CPU上.②当然我们日常所编写的绝大部分应用都没有这个必要,除非是cpu密集型应用。
  ③进行阻塞(Blocking)操作(如IO时)会阻塞掉整个程序

1、生成器(函数+yield)实现协程操作 ,单线程下实现多并发的效果

 def consumer(name):
print("------>starting eating baozi..")
while True:
new_baozi = yield #等待下一次唤醒赋值
print("[%s] is eating baozi %s"%(name,new_baozi)) def producer():
n = 0
while n < 5 :
n +=1
con.send(n) #唤醒yield并且传值
con2.send(n)
print("\033[32;1m[producer]\033[0m is making baozi %s" % n) if __name__ == "__main__":
con = consumer("c1") #生成生成器
con2 = consumer("c2")
con.__next__() #唤醒yield
con2.__next__()
producer() # 输出
# ------>starting eating baozi..
# ------>starting eating baozi..
# [c1] is eating baozi 1
# [c2] is eating baozi 1
# [producer] is making baozi 1
# [c1] is eating baozi 2
# [c2] is eating baozi 2
# [producer] is making baozi 2
# [c1] is eating baozi 3
# [c2] is eating baozi 3
# [producer] is making baozi 3
# [c1] is eating baozi 4
# [c2] is eating baozi 4
# [producer] is making baozi 4
# [c1] is eating baozi 5
# [c2] is eating baozi 5
# [producer] is making baozi 5

#yield实现并发

注:协程之所以可以出来高并发,原理遇到I/O操作就切换,只剩下CPU操作(CPU操作非常快)。用yield显然没有实现此效果。

2、greenlet :封装好的协程,利用.swith对协程操作进行手动切换。(居然是手动。。。)

 from greenlet import greenlet

 def test1():
print("in test1 12")
gr2.switch()
print("in test1 34")
gr2.switch() def test2():
print("in test2 56")
gr1.switch()
print("in test2 78")
gr1 = greenlet(test1) #启动一个协程
gr2 = greenlet(test2)
gr1.switch() #切换操作 类似于yeild里的next() # 输出
# in test1 12
# in test2 56
# in test1 34
# in test2 78

#greenlet

3、gevent:是一个第三方库,可以轻松通过gevent实现并发同步或异步编程,在gevent中用到的主要模式是Greenlet, 它是以C扩展模块形式接入Python的轻量级协程。 Greenlet全部运行在主程序操作系统进程的内部,但它们被协作式地调度。(自动的)

 import gevent

 def foo():
print("runing in foo")
gevent.sleep(2)
print("context swith to foo again") def bar():
print("context to bar")
gevent.sleep(1)
print("context to swith bar to bar") gevent.joinall([ #启动协程
gevent.spawn(foo),
gevent.spawn(bar),
]) #输出
# runing in foo
# context to bar
# context to swith bar to bar
# context swith to foo again

#gevent

①生产环境下,利用gevent做同步与异步的性能对比

 #!/usr/bin/env python
# -*- coding:utf-8 -*-
# _author_soloLi
import urllib.request
import gevent,time
from gevent import monkey
monkey.patch_all() #monkey.patch_all()执行后可以识别urllib里面的I/0操作 def f(url):
print("GET: %s"%url)
resp = urllib.request.urlopen(url)
data = resp.read()
print("%d bytes received from %s"%(len(data),url)) # 同步开销
urls = [
'https://www.python.org/',
'https://www.yahoo.com/',
'https://github.com/',
]
time_start = time.time()
for url in urls:
f(url)
print("同步cost time",time.time()-time_start) # 异步开销
async_time_start = time.time()
gevent.joinall([
gevent.spawn(f,'https://www.python.org/'),
gevent.spawn(f,'https://www.yahoo.com/'),
gevent.spawn(f,'https://github.com/')
])
print("异步cost time",time.time()-async_time_start) # 输出
# GET: https://www.python.org/
# 48853 bytes received from https://www.python.org/
# GET: https://www.yahoo.com/
# 515012 bytes received from https://www.yahoo.com/
# GET: https://github.com/
# 51379 bytes received from https://github.com/
# 同步cost time 4.631264925003052
# GET: https://www.python.org/
# GET: https://www.yahoo.com/
# GET: https://github.com/
# 515013 bytes received from https://www.yahoo.com/
# 51381 bytes received from https://github.com/
# 48853 bytes received from https://www.python.org/
# 异步cost time 1.8811075687408447

# 同步、异步性能对比

由上面程序可知,同步开销时间为4秒,异步开销为2.5秒,大大节省了开销,这就是协程的魅力;monkey.patch_all()使gevent能识别到urllib中的I/O操作(原始的gevent不能识别socket、urllib的I/O操作)

②通过gevent实现单线程下的多socket并发

 import sys
import socket
import time
import gevent from gevent import socket,monkey
monkey.patch_all() def server(port):
s = socket.socket()
s.bind(('0.0.0.0', port))
s.listen(5)
while True:
conn, addr = s.accept()
gevent.spawn(handle_request, conn) def handle_request(conn):
try:
while True:
data = conn.recv(1024)
print("recv:", data)
conn.send(data)
if not data:
conn.shutdown(socket.SHUT_WR) except Exception as ex:
print(ex)
finally:
conn.close()
if __name__ == '__main__':
server(8001)

#socket_server

 import socket

 HOST = 'localhost'    # The remote host
PORT = 8001 # The same port as used by the server
s = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
s.connect((HOST, PORT))
while True:
msg = bytes(input(">>:"),encoding="utf8")
s.sendall(msg)
data = s.recv(1024)
#print(data) print('Received', repr(data))
s.close()

#socket_client

知道了异步的优点,当遇到I/0操作时会进行切换操作,那么程序是如何知道之前的I/O执行完毕再切换回来的呢?。。。follow me

四、事件驱动与异步IO

通常,我们写服务器处理模型的程序时,有以下几种模型:
  (1)每收到一个请求,创建一个新的进程,来处理该请求;
  (2)每收到一个请求,创建一个新的线程,来处理该请求;
  (3)每收到一个请求,放入一个事件列表,让主进程通过非阻塞I/O方式来处理请求
分析:
  第(1)种模型,由于创建新的进程的开销比较大,所以,会导致服务器性能比较差,但实现比较简单。
  第(2)种模型,由于要涉及到线程的同步,有可能会面临死锁等问题。
  第(3)种模型,在写应用程序代码时,逻辑比前面两种都复杂。
综述:一般普遍认为第(3)种方式是大多数网络服务器采用的方式

看图说话讲事件驱动模型
在UI编程中,常常要对鼠标点击进行响应,首先如何获得鼠标点击呢?
方式一:创建一个线程,该线程一直循环检测是否有鼠标点击,那么这个方式有以下几个缺点:
   ①. CPU资源浪费,可能鼠标点击的频率非常小,但是扫描线程还是会一直循环检测,这会造成很多的CPU资源浪费;如果扫描鼠标点击的接口是阻塞的呢?
   ②. 如果是堵塞的,又会出现下面这样的问题,如果我们不但要扫描鼠标点击,还要扫描键盘是否按下,由于扫描鼠标时被堵塞了,那么可能永远不会去扫描键盘;
     ③. 如果一个循环需要扫描的设备非常多,这又会引来响应时间的问题;
所以,该方式是非常不好的

方式二:就是事件驱动模型
目前大部分的UI编程都是事件驱动模型,如很多UI平台都会提供onClick()事件,这个事件就代表鼠标按下事件。事件驱动模型大体思路如下:
   ①. 有一个事件(消息)队列;
     ②. 鼠标按下时,往这个队列中增加一个点击事件(消息);
     ③. 有个循环,不断从队列取出事件,根据不同的事件,调用不同的函数,如onClick()、onKeyDown()等;
     ④. 事件(消息)一般都各自保存各自的处理函数指针,这样,每个消息都有独立的处理函数;

Python学习笔记整理总结【网络编程】【线程/进程/协程/IO多路模型/select/poll/epoll/selector】

事件驱动编程是一种编程范式,这里程序的执行流由外部事件来决定。它的特点是包含一个事件循环,当外部事件发生时使用回调机制来触发相应的处理。另外两种常见的编程范式是(单线程)同步以及多线程编程。

让我们用例子来比较和对比一下单线程、多线程以及事件驱动编程模型。下图展示了随着时间的推移,这三种模式下程序所做的工作。这个程序有3个任务需要完成,每个任务都在等待I/O操作时阻塞自身。阻塞在I/O操作上所花费的时间已经用灰色框标示出来了

Python学习笔记整理总结【网络编程】【线程/进程/协程/IO多路模型/select/poll/epoll/selector】

(1)单线程同步模型中,任务按照顺序执行。如果某个任务因为I/O而阻塞,其他所有的任务都必须等待,直到它完成之后它们才能依次执行。这种明确的执行顺序和串行化处理的行为是很容易推断得出的。如果任务之间并没有互相依赖的关系,但仍然需要互相等待的话这就使得程序不必要的降低了运行速度。

(2)多线程版本中,这3个任务分别在独立的线程中执行。这些线程由操作系统来管理,在多处理器系统上可以并行处理,或者在单处理器系统上交错执行。这使得当某个线程阻塞在某个资源的同时其他线程得以继续执行。与完成类似功能的同步程序相比,这种方式更有效率,但程序员必须写代码来保护共享资源,防止其被多个线程同时访问。多线程程序更加难以推断,因为这类程序不得不通过线程同步机制如锁、可重入函数、线程局部存储或者其他机制来处理线程安全问题,如果实现不当就会导致出现微妙且令人痛不欲生的bug。

(3)事件驱动版本的程序中,3个任务交错执行,但仍然在一个单独的线程控制中。当处理I/O或者其他昂贵的操作时,注册一个回调到事件循环中,然后当I/O操作完成时继续执行。回调描述了该如何处理某个事件。事件循环轮询所有的事件,当事件到来时将它们分配给等待处理事件的回调函数。这种方式让程序尽可能的得以执行而不需要用到额外的线程。事件驱动型程序比多线程程序更容易推断出行为,因为程序员不需要关心线程安全问题。
当我们面对如下的环境时,事件驱动模型通常是一个好的选择:
        ①程序中有许多任务,而且…
        ②任务之间高度独立(因此它们不需要互相通信,或者等待彼此)而且…
        ③在等待事件到来时,某些任务会阻塞。
        ④当应用程序需要在任务间共享可变的数据时,这也是一个不错的选择,因为这里不需要采用同步处理。
网络应用程序通常都有上述这些特点,这使得它们能够很好的契合事件驱动编程模型。

总结:异步IO涉及到了事件驱动模型,进程中维护一个消息队列,当客户端又请求时,就会把请求添加到消息队列中,线程从消息队列中轮询取要处理的请求,遇到I/O阻塞时(操作系统处理调用I/O接口处理,与程序无关),则进行上下文切换,处理其他请求,当I/O操作完成时,调用回调函数,告诉线程处理完成,然后再切换回来,处理完成后返回给客户端 Nginx能处理高并发就是用的这个原理

五、I/O五种网络模式

一、概念说明

同步IO和异步IO,阻塞IO和非阻塞IO分别是什么,到底有什么区别?不同的人在不同的环境给出的答案是不同的。所以先限定一下本文的环境。本文讨论的背景是Linux环境下的network IO

在进行解释之前,首先要说明几个概念:
  - 用户空间和内核空间
  - 进程切换
  - 进程的阻塞
  - 文件描述符
  - 缓存 I/O

①用户空间与内核空间
现在操作系统都是采用虚拟存储器,那么对32位操作系统而言,它的寻址空间(虚拟存储空间)为4G(2的32次方)。操作系统的核心是内核,独立于普通的应用程序,可以访问受保护的内存空间,也有访问底层硬件设备的所有权限。为了保证用户进程不能直接操作内核(kernel),保证内核的安全,操心系统将虚拟空间划分为两部分,一部分为内核空间,一部分为用户空间。针对linux操作系统而言,将最高的1G字节(从虚拟地址0xC0000000到0xFFFFFFFF),供内核使用,称为内核空间,而将较低的3G字节(从虚拟地址0x00000000到0xBFFFFFFF),供各个进程使用,称为用户空间。

②进程切换
为了控制进程的执行,内核必须有能力挂起正在CPU上运行的进程,并恢复以前挂起的某个进程的执行。这种行为被称为进程切换。因此可以说,任何进程都是在操作系统内核的支持下运行的,是与内核紧密相关的。
从一个进程的运行转到另一个进程上运行,这个过程中经过下面这些变化:
  1. 保存处理机上下文,包括程序计数器和其他寄存器。
  2. 更新PCB信息。
  3. 把进程的PCB移入相应的队列,如就绪、在某事件阻塞等队列。
  4. 选择另一个进程执行,并更新其PCB。
  5. 更新内存管理的数据结构。
  6. 恢复处理机上下文。
注:总而言之就是很耗资源,具体的可以参考这篇文章:进程切换

③进程的阻塞
正在执行的进程,由于期待的某些事件未发生,如请求系统资源失败、等待某种操作的完成、新数据尚未到达或无新工作做等,则由系统自动执行阻塞原语(Block),使自己由运行状态变为阻塞状态。可见,进程的阻塞是进程自身的一种主动行为,也因此只有处于运行态的进程(获得CPU),才可能将其转为阻塞状态。当进程进入阻塞状态,是不占用CPU资源的。

④文件描述符fd
文件描述符(File descriptor)是计算机科学中的一个术语,是一个用于表述指向文件的引用的抽象化概念。
文件描述符在形式上是一个非负整数。实际上,它是一个索引值,指向内核为每一个进程所维护的该进程打开文件的记录表。当程序打开一个现有文件或者创建一个新文件时,内核向进程返回一个文件描述符。在程序设计中,一些涉及底层的程序编写往往会围绕着文件描述符展开。但是文件描述符这一概念往往只适用于UNIX、Linux这样的操作系统。

⑤缓存 I/O
缓存 I/O 又被称作标准 I/O,大多数文件系统的默认 I/O 操作都是缓存 I/O。在 Linux 的缓存 I/O 机制中,操作系统会将 I/O 的数据缓存在文件系统的页缓存( page cache )中,也就是说,数据会先被拷贝到操作系统内核的缓冲区中,然后才会从操作系统内核的缓冲区拷贝到应用程序的地址空间。
缓存 I/O 的缺点:
数据在传输过程中需要在应用程序地址空间和内核进行多次数据拷贝操作,这些数据拷贝操作所带来的 CPU 以及内存开销是非常大的。

二、I/O模式
刚才说了,对于一次IO访问(以read举例),数据会先被拷贝到操作系统内核的缓冲区中,然后才会从操作系统内核的缓冲区拷贝到应用程序的地址空间。所以说,当一个read操作发生时,它会经历两个阶段:
  1. 等待数据准备 (Waiting for the data to be ready)
  2. 将数据从内核拷贝到进程中 (Copying the data from the kernel to the process)

正式因为这两个阶段,linux系统产生了下面五种网络模式的方案。
  - ①阻塞 I/O(blocking IO)
  - ②非阻塞 I/O(nonblocking IO)
  - ③I/O 多路复用( IO multiplexing)
  - ④信号驱动 I/O( signal driven IO)
  - ⑤异步 I/O(asynchronous IO)
注:由于signal driven IO在实际中并不常用,所以我这只提及剩下的四种IO Model

①阻塞 I/O(blocking IO)
在linux中,默认情况下所有的socket都是blocking,一个典型的读操作流程大概是这样:Python学习笔记整理总结【网络编程】【线程/进程/协程/IO多路模型/select/poll/epoll/selector】

当用户进程调用了recvfrom这个系统调用,kernel就开始了IO的第一个阶段:准备数据(对于网络IO来说,很多时候数据在一开始还没有到达。比如,还没有收到一个完整的UDP包。这个时候kernel就要等待足够的数据到来)。这个过程需要等待,也就是说数据被拷贝到操作系统内核的缓冲区中是需要一个过程的。而在用户进程这边,整个进程会被阻塞(当然,是进程自己选择的阻塞)。当kernel一直等到数据准备好了,它就会将数据从kernel中拷贝到用户内存,然后kernel返回结果,用户进程才解除block的状态,重新运行起来
所以,blocking IO的特点就是在IO执行的两个阶段都被block了,大大消耗了程序执行的时间

②非阻塞 I/O(nonblocking IO)
linux下,可以通过设置socket使其变为non-blocking。当对一个non-blocking socket执行读操作时,流程是这个样子:Python学习笔记整理总结【网络编程】【线程/进程/协程/IO多路模型/select/poll/epoll/selector】

当用户进程发出read操作时,如果kernel中的数据还没有准备好,那么它并不会block用户进程,而是立刻返回一个error。从用户进程角度讲 ,它发起一个read操作后,并不需要等待,而是马上就得到了一个结果。用户进程判断结果是一个error时,它就知道数据还没有准备好,于是它可以再次发送read操作。一旦kernel中的数据准备好了,并且又再次收到了用户进程的system call,那么它马上就将数据拷贝到了用户内存,然后返回
所以,nonblocking IO的特点是用户进程需要不断的主动询问kernel数据好了没有,wait for data阶段进程没有等待,但是copydata从内核拷贝到用户进程时,程序是阻塞状态

③I/O 多路复用( IO multiplexing)
IO multiplexing就是我们说的select,poll,epoll,有些地方也称这种IO方式为event driven IO。select/epoll的好处就在于单个process就可以同时处理多个网络连接的IO。它的基本原理就是select,poll,epoll这个function会不断的轮询所负责的所有socket,当某个socket有数据到达了,就通知用户进程Python学习笔记整理总结【网络编程】【线程/进程/协程/IO多路模型/select/poll/epoll/selector】
当用户进程调用了select,那么整个进程会被block,而同时,kernel会“监视”所有select负责的socket,当任何一个socket中的数据准备好了,select就会返回。这个时候用户进程再调用read操作,将数据从kernel拷贝到用户进程

所以,I/O 多路复用的特点是通过一种机制一个进程能同时等待多个文件描述符,而这些文件描述符(套接字描述符)其中的任意一个进入读就绪状态,select()函数就可以返回

这个图和blocking IO的图其实并没有太大的不同,事实上,还更差一些。因为这里需要使用两个system call (select 和 recvfrom),而blocking IO只调用了一个system call (recvfrom)。但是,用select的优势在于它可以同时处理多个connection。
所以,如果处理的连接数不是很高的话,使用select/epoll的web server不一定比使用multi-threading + blocking IO的web server性能更好,可能延迟还更大。select/epoll的优势并不是对于单个连接能处理得更快,而是在于能处理更多的连接。)
在IO multiplexing Model中,实际中,对于每一个socket,一般都设置成为non-blocking,但是,如上图所示,整个用户的process其实是一直被block的。只不过process是被select这个函数block,而不是被socket IO给block

④异步 I/O(asynchronous IO)
linux下的asynchronous IO其实用得很少。先看一下它的流程Python学习笔记整理总结【网络编程】【线程/进程/协程/IO多路模型/select/poll/epoll/selector】
用户进程发起read操作之后,立刻就可以开始去做其它的事。而另一方面,从kernel的角度,当它受到一个asynchronous read之后,首先它会立刻返回,所以不会对用户进程产生任何block。然后,kernel会等待数据准备完成,然后将数据拷贝到用户内存,当这一切都完成之后,kernel会给用户进程发送一个signal,告诉它read操作完成了

三、总结

①blocking和non-blocking的区别
调用blocking IO会一直block住对应的进程直到操作完成,而non-blocking IO在kernel还准备数据的情况下会立刻返回。

②synchronous IO和asynchronous IO的区别
在说明synchronous IO和asynchronous IO的区别之前,需要先给出两者的定义。POSIX的定义是这样子的:
- A synchronous I/O operation causes the requesting process to be blocked until that I/O operation completes;
- An asynchronous I/O operation does not cause the requesting process to be blocked;

两者的区别就在于synchronous IO做”IO operation”的时候会将process阻塞。按照这个定义,之前所述的blocking IO,non-blocking IO,IO multiplexing都属于synchronous IO。

有人会说,non-blocking IO并没有被block啊。这里有个非常“狡猾”的地方,定义中所指的”IO operation”是指真实的IO操作,就是例子中的recvfrom这个system call。non-blocking IO在执行recvfrom这个system call的时候,如果kernel的数据没有准备好,这时候不会block进程。但是,当kernel中数据准备好的时候,recvfrom会将数据从kernel拷贝到用户内存中,这个时候进程是被block了,在这段时间内,进程是被block的。

而asynchronous IO则不一样,当进程发起IO 操作之后,就直接返回再也不理睬了,直到kernel发送一个信号,告诉进程说IO完成。在这整个过程中,进程完全没有被block。

各个IO Model的比较如图所示:

Python学习笔记整理总结【网络编程】【线程/进程/协程/IO多路模型/select/poll/epoll/selector】

通过上面的图片,可以发现non-blocking IO和asynchronous IO的区别还是很明显的。在non-blocking IO中,虽然进程大部分时间都不会被block,但是它仍然要求进程去主动的check,并且当数据准备完成以后,也需要进程主动的再次调用recvfrom来将数据拷贝到用户内存。而asynchronous IO则完全不同。它就像是用户进程将整个IO操作交给了他人(kernel)完成,然后他人做完后发信号通知。在此期间,用户进程不需要去检查IO操作的状态,也不需要主动的去拷贝数据。

六、剖析IO多路复用(多连接):协程和IO多路复用都是单线程
IO多路复用是指内核一旦发现进程指定的一个或者多个IO条件准备读取,它就通知该进程。IO多路复用适用如下场合:
  -当客户处理多个描述字时(一般是交互式输入和网络套接口),必须使用I/O复用。
  -当一个客户同时处理多个套接口时,而这种情况是可能的,但很少出现。
  -如果一个TCP服务器既要处理监听套接口,又要处理已连接套接口,一般也要用到I/O复用。
  -如果一个服务器即要处理TCP,又要处理UDP,一般要使用I/O复用。
  -如果一个服务器要处理多个服务或多个协议,一般要使用I/O复用。
与多进程和多线程技术相比,I/O多路复用技术的最大优势是系统开销小,系统不必创建进程/线程,也不必维护这些进程/线程,从而大大减小了系统的开销。

select模块(实现伪并发)
Python中有一个select模块,其中提供了:select、poll、epoll三个方法,分别调用系统的 select,poll,epoll 从而实现IO多路复用

 Windows Python:
提供: select
Mac Python:
提供: select
Linux Python:
提供: select、poll、epoll

select
  select最早于1983年出现在4.2BSD中,它通过一个select()系统调用来监视多个文件描述符的数组,当select()返回后,该数组中就绪的文件描述符便会被内核修改标志位,使得进程可以获得这些文件描述符从而进行后续的读写操作。select目前几乎在所有的平台上支持,其良好跨平台支持也是它的一个优点,事实上从现在看来,这也是它所剩不多的优点之一。select的一个缺点在于单个进程能够监视的文件描述符的数量存在最大限制,在Linux上一般为1024,不过可以通过修改宏定义甚至重新编译内核的方式提升这一限制。另外,select()所维护的存储大量文件描述符的数据结构,随着文件描述符数量的增大,其复制的开销也线性增长。同时,由于网络响应时间的延迟使得大量TCP连接处于非活跃状态,但调用select()会对所有socket进行一次线性扫描,所以这也浪费了一定的开销。

总结:select目前几乎在所有的平台上支持,其良好跨平台支持也是它的一个优点。select的一 个缺点在于单个进程能够监视的文件描述符的数量存在最大限制,在Linux上一般为1024,可以通过修改宏定义甚至重新编译内核的方式提升这一限制,但是这样也会造成效率的降低。开销随着文件描述符数量的增加而线性增大

select直接通过操作系统提供的C的网络接口进行操作,而不是通过Python的解释器。

poll
  poll在1986年诞生于System V Release 3,它和select在本质上没有多大差别,但是poll没有最大文件描述符数量的限制。poll和select同样存在一个缺点就是,包含大量文件描述符的数组被整体复制于用户态和内核的地址空间之间,而不论这些文件描述符是否就绪,它的开销随着文件描述符数量的增加而线性增大。另外,select()和poll()将就绪的文件描述符告诉进程后,如果进程没有对其进行IO操作,那么下次调用select()和poll()的时候将再次报告这些文件描述符,所以它们一般不会丢失就绪的消息,这种方式称为水平触发(Level Triggered)。

总结:poll没有最大文件描述符数量的限制;但开销随着文件描述符数量的增加而线性增大;采用水平触发(告诉进程哪些文件描述符刚刚变为就绪状态,如果我们没有采取行动,下次调用select()和poll()的时候将再次报告这些文件描述符,一般不会丢失就绪的消息)

epoll
  直到Linux2.6才出现了由内核直接支持的实现方法,那就是epoll,它几乎具备了之前所说的一切优点,被公认为Linux2.6下性能最好的多路I/O就绪通知方法。epoll可以同时支持水平触发和边缘触发(Edge Triggered,只告诉进程哪些文件描述符刚刚变为就绪状态,它只说一遍,如果我们没有采取行动,那么它将不会再次告知,这种方式称为边缘触发),理论上边缘触发的性能要更高一些,但是代码实现相当复杂。epoll同样只告知那些就绪的文件描述符,而且当我们调用epoll_wait()获得就绪文件描述符时,返回的不是实际的描述符,而是一个代表就绪描述符数量的值,你只需要去epoll指定的一个数组中依次取得相应数量的文件描述符即可,这里也使用了内存映射(mmap)技术,这样便彻底省掉了这些文件描述符在系统调用时复制的开销。另一个本质的改进在于epoll采用基于事件的就绪通知方式。在select/poll中,进程只有在调用一定的方法后,内核才对所有监视的文件描述符进行扫描,而epoll事先通过epoll_ctl()来注册一个文件描述符,一旦基于某个文件描述符就绪时,内核会采用类似callback的回调机制,迅速激活这个文件描述符,当进程调用epoll_wait()

总结:epoll没有最大文件描述符数量的限制;可以同时支持水平触发和边缘触发(Edge Triggered,只告诉进程哪些文件描述符刚刚变为就绪状态,它只说一遍,如果我们没有采取行动,那么它将不会再次告知);使用了内存映射(mmap)技术,这样便彻底省掉了这些文件描述符在系统调用时复制的开销。采用基于事件的就绪通知方式;事先通过epoll_ctl()来注册一个文件描述符,一旦基于某个文件描述符就绪时,内核会采用类似callback的回调机制,迅速激活这个文件描述符,当进程调用epoll_wait()时便得到通知。

select.select方法:

  select函数需要3个序列作为它的必选参数,此外还有一个可选的以秒单位的超时时间作为第4个参数。3个序列用于输入、输出以及异常情况(错误);如果没有给定超时时间,select会阻塞(也就是处于等待状态),知道其中的一个文件描述符以及为行动做好了准备,如果给定了超时时间,select最多阻塞给定的超时时间,如果超时时间为0,那么就给出一个连续的poll(即不阻塞);select的返回值是3个序列,每个代表相应参数的一个活动子集。第一个序列用于监听socket对象内部是否发生变化,如果有变化表示有新的连接

 #!/usr/bin/env python
# -*- coding:utf-8 -*-
# _author_soloLi
import select
import socket
import sys
import queue server = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
server.setblocking(0)
server_address = ('localhost', 8002)
print(sys.stderr, 'starting up on %s port %s' % server_address)
server.bind(server_address)
server.listen(5) inputs = [ server ]
outputs = [ ]
message_queues = {} while inputs:
print( '\nwaiting for the next event')
readable, writable, exceptional = select.select(inputs, outputs, inputs) for s in readable:
if s is server:
connection, client_address = s.accept()
print('new connection from', client_address)
connection.setblocking(0)
inputs.append(connection)
message_queues[connection] = queue.Queue()
else:
data = s.recv(1024)
if data:
print(sys.stderr, 'received "%s" from %s' % (data, s.getpeername()) )
message_queues[s].put(data)
if s not in outputs:
outputs.append(s)
else:
print('closing', client_address, 'after reading no data')
if s in outputs:
outputs.remove(s)
inputs.remove(s)
s.close()
del message_queues[s] for s in writable:
try:
next_msg = message_queues[s].get_nowait()
except queue.Empty:
print('output queue for', s.getpeername(), 'is empty')
outputs.remove(s)
else:
print( 'sending "%s" to %s' % (next_msg, s.getpeername()))
s.send(next_msg) for s in exceptional:
print('handling exceptional condition for', s.getpeername() )
inputs.remove(s)
if s in outputs:
outputs.remove(s)
s.close()
del message_queues[s] server.close()

#server(纯代码)

#!/usr/bin/env python
# -*- coding:utf-8 -*-
# _author_soloLi
import select
import socket
import sys
import queue server = socket.socket(socket.AF_INET, socket.SOCK_STREAM) # 创建一个TCP socket
server.setblocking(0) # 设置为不阻塞
server_address = ('localhost', 8002)
print(sys.stderr, 'starting up on %s port %s' % server_address)
server.bind(server_address) # 绑定IP地址和端口
server.listen(5) # 监听链接 inputs = [ server ] # 创建inputs[]通信列表,被select()方法监控和接收所有外部发过来的data(outgoing data)//#自己也要监测呀,因为server本身也是个fd
#inputs = [server,conn]//[conn,]
#inputs = [server,conn,conn2]//[conn2,]
outputs = [ ] # 创建outputs[]通信列表,被select()方法监控和接收所有要发出去的data(outgoing data)
#outputs = [r1,] #
message_queues = {} # 创建message_queues = {}字典,每个连接要把输入或输出的数据先缓存到queue里 #所有客户端的进来的连接和数据将会被server的主循环程序放在上面的list中处理,我们现在的server端需要等待连接可写(writable)之后才能过来,然后接收数据并返回(因此不是在接收到数据之后就立刻返回),因为每个连接要把输入或输出的数据先缓存到queue里,然后再由select取出来再发出去。 while inputs: #此程序的主循环,调用select()时会阻塞和等待直到新的连接和数据进来//#如果没有任何fd就绪,那程序就会一直阻塞在这里 print( '\nwaiting for the next event')
readable, writable, exceptional = select.select(inputs, outputs, inputs) #把inputs,outputs,exceptional(这里跟inputs共用)传给select()后,它返回3个新的列表,readable,writable,exceptional
#(1)readable列表:监听服务端对象(内部是否发生变化,如果有变化表示有新的连接),当inputs列表有变化时,变化的值会赋值给readable_list中,
# ①如果有新的连接进来,sk会发生变化,此时readable_list—的值为sk
# ②如果conn对象发生变化,表示客户端发送了新的消息过来,此时readable_list的值为客户端连接
#(2)writeable列表:实现读写分离,存放可以进行发送信息的conn对象
#(3)exceptional列表:存放连接通信出现的error ##(一)操作inputs列表:客户端发进来的数据列表
for s in readable: # 1、当客户端第一次连接服务端时,未在inputs里(新连接进来了,接受这个连接)
if s is server:
connection, client_address = s.accept()
print('new connection from', client_address)
connection.setblocking(0)
inputs.append(connection) #添加到inputs
#因为这个新建立的连接还没发数据过来,现在就接收的话程序就报错了,
#所以要想实现这个客户端发数据来时server端能知道,就需要让select再监测这个conn
message_queues[connection] = queue.Queue() #初始化一个队列,接收到客户端的数据后,不立刻返回,暂存在队列里,以后发送 # 2、当客户端连接上服务端之后,再次发送数据时,已经存在inputs(s不是server的话,那就只能是一个与客户端建立的连接的fd了)
else:
data = s.recv(1024)
# ①当客户端正常打开程序时(正常接收客户端发送的数据)
if data:
print(sys.stderr, 'received "%s" from %s' % (data, s.getpeername()) )
message_queues[s].put(data) #收到的数据先放到queue里,一会返回给客户端
if s not in outputs:
outputs.append(s) #放入返回的连接队列里 # ②当客户端关闭程序时
else:
# Interpret empty result as closed connection
print('closing', client_address, 'after reading no data')
# Stop listening for input on the connection
if s in outputs:
outputs.remove(s) #既然客户端都断开了,我就不用再给它返回数据了,所以这时候如果这个客户端的连接对象还在outputs列表中,就把它删掉
inputs.remove(s) #inputs中也删除掉
s.close() #把这个连接关闭掉
del message_queues[s] #队列中也要删掉 ##(二)操作outputs列表:要返回给客户端的连接列表
for s in writable:
try:
next_msg = message_queues[s].get_nowait()
except queue.Empty: #①客户端连接在跟它对应的queue里没有数据
print('output queue for', s.getpeername(), 'is empty')
outputs.remove(s) #把这个连接从outputs列表中移除(确保下次循环的时候writeable,不返回这个已经处理完的连接了) #②客户端连接在跟它对应的queue里有数据
else:
print( 'sending "%s" to %s' % (next_msg, s.getpeername()))
s.send(next_msg) #把这个数据发给客户端 ##(三)操作exceptional列表:连接通信过程中出现的错误
for s in exceptional:
print('handling exceptional condition for', s.getpeername() )
# 把这个连接对象在inputs\outputs\message_queue中都删除
inputs.remove(s)
if s in outputs:
outputs.remove(s)
s.close() # 连接关闭掉
del message_queues[s] # 从队列中移除此链接信息 server.close()
#!/usr/bin/env python
# -*- coding:utf-8 -*-
# _author_soloLi
import socket
import sys messages = [ 'This is the message. ',
'It will be sent ',
'in parts.',
]
server_address = ('localhost', 10000) # Create a TCP/IP socket
socks = [ socket.socket(socket.AF_INET, socket.SOCK_STREAM),
socket.socket(socket.AF_INET, socket.SOCK_STREAM),
] # Connect the socket to the port where the server is listening
print >>sys.stderr, 'connecting to %s port %s' % server_address
for s in socks:
s.connect(server_address) for message in messages: # Send messages on both sockets
for s in socks:
print >>sys.stderr, '%s: sending "%s"' % (s.getsockname(), message)
s.send(message) # Read responses on both sockets
for s in socks:
data = s.recv(1024)
print >>sys.stderr, '%s: received "%s"' % (s.getsockname(), data)
if not data:
print >>sys.stderr, 'closing socket', s.getsockname()
s.close()

②select.poll方法:

  poll方法使用起来比select简单。在调用poll时,会得到一个poll对象。然后就可以使用poll的对象的register方法注册一个文件描述符(或者是带有fileno方法的对象)。注册后可以使用unregister方法移出注册的对象。注册了一些对象(比如套接字)以后,就可以调用poll方法(带有一个可选的超时时间参数)并得到一个(fd,event)格式列表(可能为空),其中fd是文件描述符,event则告诉你发生了什么。这是一个位掩码(bitmask),意思是它是一个整数,这个整数的每个位对应不同的事件。那些不同的事件是select模块的常量,为了验证是否设置了一个定位(也就是说,一个给定的事件是否发生了),可以使用按位与操作符(&):if event & select.POLLIN

select模块中的polling事件常量:

事件名                                描述

POLLIN                              #读取来自文件描述符的数据
POLLPRT #读取来自文件描述符的紧急数据
POLLOUT #文件描述符已经准备好数据,写入时不会发生阻塞
POLLERR #与文件描述符有关的错误情况
POLLHUP #挂起,连接丢失
POLLNVAL #无效请求,连接没有打开
#poll 异步I/O

import socket,select

s = socket.socket()
host = "127.0.0.1"
port = 8002
s.bind((host,port)) fdmap = {s.fileno():s} #文件描述符到套接字对象的映射 s.listen(5)
p = select.poll() #poll对象
p.register(s) #注册一个文件描述符(带有fileno方法的对象)
while True:
events = p.poll()
for fd,event in events:
if fd == s.fileno(): #新的连接进来
c,addr = s.accept()
print("Got connectins from",addr)
p.register(c) #注册一个文件描述符(带有fileno方法的对象)
fdmap[c.fileno()] = c #添加到fdmap
elif event & select.POLLIN: #读取来自文件描述符的数据
data = fdmap[fd].recv(1024)
if not data: #表示客户端断开
print(fdmap[fd].getpeername(),"disconnected")
p.unregister(fd) #清除文件描述符
del fdmap[fd] #删除fdmap对应的key值
else:
print(data.decode())
#poll 异步I/O

import socket

sk = socket.socket()
sk.connect(("127.0.0.1",8002)) while True:
command = input("--->>>")
sk.sendall(command.encode())
sk.close()

③select.epoll方法:

epoll是在2.6内核中提出的,是之前的select和poll的增强版本。相对于select和poll来说,epoll更加灵活,没有描述符限制。epoll使用一个文件描述符管理多个描述符,将用户关系的文件描述符的事件存放到内核的一个事件表中,这样在用户空间和内核空间的copy只需一次。
epoll操作过程:
epoll操作过程需要三个接口,分别如下:

int epoll_create(int size);#创建一个epoll的句柄,size用来告诉内核这个监听的数目一共有多大
int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);
int epoll_wait(int epfd, struct epoll_event * events, int maxevents, int timeout);

1. int epoll_create(int size);
创建一个epoll的句柄,size用来告诉内核这个监听的数目一共有多大,这个参数不同于select()中的第一个参数,给出最大监听的fd+1的值,参数size并不是限制了epoll所能监听的描述符最大个数,只是对内核初始分配内部数据结构的一个建议。
当创建好epoll句柄后,它就会占用一个fd值,在linux下如果查看/proc/进程id/fd/,是能够看到这个fd的,所以在使用完epoll后,必须调用close()关闭,否则可能导致fd被耗尽。
2. int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);
函数是对指定描述符fd执行op操作。
- epfd:是epoll_create()的返回值。
- op:表示op操作,用三个宏来表示:添加EPOLL_CTL_ADD,删除EPOLL_CTL_DEL,修改EPOLL_CTL_MOD。分别添加、删除和修改对fd的监听事件。
- fd:是需要监听的fd(文件描述符)
- epoll_event:是告诉内核需要监听什么事
3. int epoll_wait(int epfd, struct epoll_event * events, int maxevents, int timeout);
等待epfd上的io事件,最多返回maxevents个事件。
参数events用来从内核得到事件的集合,maxevents告之内核这个events有多大,这个maxevents的值不能大于创建epoll_create()时的size,参数timeout是超时时间(毫秒,0会立即返回,-1将不确定,也有说法说是永久阻塞)。该函数返回需要处理的事件数目,如返回0表示已超时。

#!/usr/bin/env python
# -*- coding:utf-8 -*-
# _author_soloLi
import socket, logging
import select, errno logger = logging.getLogger("network-server") def InitLog():
logger.setLevel(logging.DEBUG) fh = logging.FileHandler("network-server.log")
fh.setLevel(logging.DEBUG)
ch = logging.StreamHandler()
ch.setLevel(logging.ERROR) formatter = logging.Formatter("%(asctime)s - %(name)s - %(levelname)s - %(message)s")
ch.setFormatter(formatter)
fh.setFormatter(formatter) logger.addHandler(fh)
logger.addHandler(ch) if __name__ == "__main__":
InitLog() try:
# 创建 TCP socket 作为监听 socket
listen_fd = socket.socket(socket.AF_INET, socket.SOCK_STREAM, 0)
except socket.error as msg:
logger.error("create socket failed") try:
# 设置 SO_REUSEADDR 选项
listen_fd.setsockopt(socket.SOL_SOCKET, socket.SO_REUSEADDR, 1)
except socket.error as msg:
logger.error("setsocketopt SO_REUSEADDR failed") try:
# 进行 bind -- 此处未指定 ip 地址,即 bind 了全部网卡 ip 上
listen_fd.bind(('', 2003))
except socket.error as msg:
logger.error("bind failed") try:
# 设置 listen 的 backlog 数
listen_fd.listen(10)
except socket.error as msg:
logger.error(msg) try:
# 创建 epoll 句柄
epoll_fd = select.epoll()
# 向 epoll 句柄中注册 监听 socket 的 可读 事件
epoll_fd.register(listen_fd.fileno(), select.EPOLLIN)
except select.error as msg:
logger.error(msg) connections = {}
addresses = {}
datalist = {}
while True:
# epoll 进行 fd 扫描的地方 -- 未指定超时时间则为阻塞等待
epoll_list = epoll_fd.poll() for fd, events in epoll_list:
# 若为监听 fd 被激活
if fd == listen_fd.fileno():
# 进行 accept -- 获得连接上来 client 的 ip 和 port,以及 socket 句柄
conn, addr = listen_fd.accept()
logger.debug("accept connection from %s, %d, fd = %d" % (addr[0], addr[1], conn.fileno()))
# 将连接 socket 设置为 非阻塞
conn.setblocking(0)
# 向 epoll 句柄中注册 连接 socket 的 可读 事件
epoll_fd.register(conn.fileno(), select.EPOLLIN | select.EPOLLET)
# 将 conn 和 addr 信息分别保存起来
connections[conn.fileno()] = conn
addresses[conn.fileno()] = addr
elif select.EPOLLIN & events:
# 有 可读 事件激活
datas = ''
while True:
try:
# 从激活 fd 上 recv 10 字节数据
data = connections[fd].recv(10)
# 若当前没有接收到数据,并且之前的累计数据也没有
if not data and not datas:
# 从 epoll 句柄中移除该 连接 fd
epoll_fd.unregister(fd)
# server 侧主动关闭该 连接 fd
connections[fd].close()
logger.debug("%s, %d closed" % (addresses[fd][0], addresses[fd][1]))
break
else:
# 将接收到的数据拼接保存在 datas 中
datas += data
except socket.error as msg:
# 在 非阻塞 socket 上进行 recv 需要处理 读穿 的情况
# 这里实际上是利用 读穿 出 异常 的方式跳到这里进行后续处理
if msg.errno == errno.EAGAIN:
logger.debug("%s receive %s" % (fd, datas))
# 将已接收数据保存起来
datalist[fd] = datas
# 更新 epoll 句柄中连接d 注册事件为 可写
epoll_fd.modify(fd, select.EPOLLET | select.EPOLLOUT)
break
else:
# 出错处理
epoll_fd.unregister(fd)
connections[fd].close()
logger.error(msg)
break
elif select.EPOLLHUP & events:
# 有 HUP 事件激活
epoll_fd.unregister(fd)
connections[fd].close()
logger.debug("%s, %d closed" % (addresses[fd][0], addresses[fd][1]))
elif select.EPOLLOUT & events:
# 有 可写 事件激活
sendLen = 0
# 通过 while 循环确保将 buf 中的数据全部发送出去
while True:
# 将之前收到的数据发回 client -- 通过 sendLen 来控制发送位置
sendLen += connections[fd].send(datalist[fd][sendLen:])
# 在全部发送完毕后退出 while 循环
if sendLen == len(datalist[fd]):
break
# 更新 epoll 句柄中连接 fd 注册事件为 可读
epoll_fd.modify(fd, select.EPOLLIN | select.EPOLLET)
else:
# 其他 epoll 事件不进行处理
continue epoll socket echo server

selectors模块

selectors模块已经封装了epoll,select方法;epoll优先级大于select

import selectors
import socket sel = selectors.DefaultSelector() def accept(sock, mask):
conn, addr = sock.accept() # Should be ready
print('accepted', conn, 'from', addr)
conn.setblocking(False)
sel.register(conn, selectors.EVENT_READ, read) def read(conn, mask):
data = conn.recv(1000) # Should be ready
if data:
print('echoing', repr(data), 'to', conn)
conn.send(data) # Hope it won't block
else:
print('closing', conn)
sel.unregister(conn)
conn.close() sock = socket.socket()
sock.bind(('localhost', 10000))
sock.listen(100)
sock.setblocking(False)
sel.register(sock, selectors.EVENT_READ, accept)

Python学习笔记整理总结【网络编程】【线程/进程/协程/IO多路模型/select/poll/epoll/selector】的更多相关文章

  1. Python学习笔记——进阶篇【第九周】———协程

    协程 协程,又称微线程,纤程.英文名Coroutine.一句话说明什么是协程:协程是一种用户态的轻量级线程. 协程拥有自己的寄存器上下文和栈.协程调度切换时,将寄存器上下文和栈保存到其他地方,在切回来 ...

  2. 吴裕雄--天生自然python学习笔记:Python3 网络编程

    Python 提供了两个级别访问的网络服务.: 低级别的网络服务支持基本的 Socket,它提供了标准的 BSD Sockets API,可以访问底层操作系统Socket接口的全部方法. 高级别的网络 ...

  3. 流畅python学习笔记:第十六章:协程

    通常在python进行编程一般都是使用多线程或者多进程来实现.这里介绍另外一种并发的方式,就是协程,但和多线程以及多进程不一样的是,协程是运行在单线程当中的并发.来看下具体的例子: def simpl ...

  4. 15&period;python并发编程&lpar;线程--进程--协程&rpar;

    一.进程:1.定义:进程最小的资源单位,本质就是一个程序在一个数据集上的一次动态执行(运行)的过程2.组成:进程一般由程序,数据集,进程控制三部分组成:(1)程序:用来描述进程要完成哪些功能以及如何完 ...

  5. python之并发编程&lpar;线程&bsol;进程&bsol;协程&rpar;

    一.进程和线程 1.进程 假如有两个程序A和B,程序A在执行到一半的过程中,需要读取大量的数据输入(I/O操作),而此时CPU只能静静地等待任务A读取完数据才能继续执行,这样就白白浪费了CPU资源.是 ...

  6. python学习笔记&lpar;十二&rpar;-网络编程

    本文结束使用 Requests 发送网络请求.requests是一个很实用的Python HTTP客户端库,编写爬虫和测试服务器响应数据时经常会用到.可以说,Requests 完全满足如今网络的需求. ...

  7. Linux网络通信编程(套接字模型TCP&bsol;UDP与IO多路复用模型select&bsol;poll&bsol;epoll)

    Linux下测试代码: http://www.linuxhowtos.org/C_C++/socket.htm TCP模型 //TCPClient.c #include<string.h> ...

  8. python学习笔记整理——字典

    python学习笔记整理 数据结构--字典 无序的 {键:值} 对集合 用于查询的方法 len(d) Return the number of items in the dictionary d. 返 ...

  9. golang学习笔记20 一道考察对并发多协程操作一个共享变量的面试题

    golang学习笔记20 一道考察对并发多协程操作一个共享变量的面试题 下面这个程序运行的能num结果是什么? package main import ( "fmt" " ...

随机推荐

  1. tyvj1098 任务安排

    描述 N个任务排成一个序列在一台机器上等待完成(顺序不得改变),这N个任务被分成若干批,每批包含相邻的若干任务.从时刻0开始,这些任务被分批加工,第i个任务单独完成所需的时间是Ti.在每批任务开始前, ...

  2. postgresql 关闭自动提交

    1. 简介说明             我们知道oracle中sqlplus里面执行dml语句:是需要提交commit:若错了:也可以回滚rollback: 然而在postgresql里面默认是自动提 ...

  3. Java Concurrency - java&period;util&period;concurrent API Class Diagram

    摘自: www.uml-diagrams.org Here we provide several UML class diagrams for the Java™ 7 java.util.concur ...

  4. &lbrack;Android&rsqb; 输入系统(二)

    在上一篇文章的最后,我们发现InputDispatcher是调用了InputChannel->sendMessage把键值发送出去,那么相应的,也有接收键值的地方.接收函数是InputChann ...

  5. oracle列合并

    在很多场合,我们会须要用到oracle列合并,oracle提供了一些方法用于把某列的多行数据合并成一行. 一.10G曾经使用WMSYS.WM_CONCAT   wmsys.wm_concat将字段的值 ...

  6. 各种ps特效的网址

    粉笔字效果:http://www.jb51.net/photoshop/280740.html

  7. &lbrack;Python Study Notes&rsqb;文件操作

    文件操作 对文件操作流程 打开文件,可添加filepath打开某绝对路径下的文件,得到文件句柄并赋值给一个变量 通过句柄对文件进行操作 关闭文件 # The_author = 'liu66' # -* ...

  8. TCP为什么不是两次握手而是三次?

    为什么不采用两次握手?如果是两次握手的情景:客户端在发送一个连接建立请求之后进入等待状态,等到服务端确认之后就进入established状态.服务端在发送一个确认连接建立请求报文之后(不管客户端是否有 ...

  9. 启动django时报错Watching for file changes with StatReloader(使用状态加载程序监视文件更改 )

    原因:可能是Django版本和Python版本或者PyMysql版本不一致 解决:升级或者降级Django版本 命令如下: pip install django==2.1.7 #django==版本号 ...

  10. raycast 一小段距离碰撞到的poly

    dtNavMeshQuery::raycast(dtPolyRef startRef, const float* startPos, const float* endPos, const dtQuer ...