python爬虫Mitmproxy安装使用学习笔记

时间:2022-11-13 18:27:43

一、简介和安装

1.1、概念和作用

概念

Mitmproxy是一个免费的开源交互式的HTTPS代理。MITM即中间人攻击(Man-in-the-Middle Attack)。

作用

代理的作用,转发请求,保障服务端与客户端的通信

查看,记录,修改数据,引发服务端或客户端的特定行为

python爬虫Mitmproxy安装使用学习笔记

补充:Mitmproxy与Fiddler、Charles异同
相同点: a、都是用来捕获 HTTP,HTTPS 请求的(其他协议比如 TCP,UDP,IP,ICMP 等就用Wireshark)
     b、抓包、断点调试、请求替换、构造请求、模拟弱网等

不同点:a、Fiddler只能运行在Windows系统;Mitmproxy、Charles是跨平台的,可运行在Windows、Mac或Linux系统等。
    b、Fiddler、Mitmproxy开源免费、Charles是收费的(可破解)。
    c、Mitmproxy支持命令行交互模式、GUI界面,Fiddler、Charles仅支持GUI界面
(Fiddler底部有个命令行工具叫做 QuickExec)

1.2、安装

pip  install  mitmproxy

pip install -i https://pypi.douban.com/simple  mitmproxy  

如果直接安装的速度太慢了,可以在命令行中添加国内的镜像源加快速度,就是第二条命令。注意:python 版本不低于3.6

检查是否安装成功:命令行中输入命令查看mitmdump --version

python爬虫Mitmproxy安装使用学习笔记

安装成功后在Python安装路径Script路径下可以找到 mitmdump.exemitmproxy.exemitmweb.exe 这三个可执行文件。

python爬虫Mitmproxy安装使用学习笔记

1.3、工具介绍

mitmproxy:命令行界面,允许交互式检查和修改http数据流,不支持windows

python爬虫Mitmproxy安装使用学习笔记

mitmweb: Web界面,用户可以实时看到发生的请求,过滤请求,查看请求数据

python爬虫Mitmproxy安装使用学习笔记

mitmdump: 一个命令行工具,没有界面,不能交互,但是可以通过启动参数并结合自定义脚本进行定制化功能的实现,是我们运行的环境

python爬虫Mitmproxy安装使用学习笔记

这三个命令功能一致,且都可以加载自定义脚本,唯一的区别是交互界面的不同;

mitmproxy,mitmweb主要用来做调试,部署项目时使用mitmdump。

 

二、设置代理

2.1、PC端设置代理

开启代理时需要把其他的代理都关掉

python爬虫Mitmproxy安装使用学习笔记

开启代理

注:这时我们刚开启代理,还未安装证书,如果访问其他网址会出现报错,如下图所示:

python爬虫Mitmproxy安装使用学习笔记

2.2、PC端安装证书

在代理状态下,访问http://mitm.it/,PC端与移动端操作相同。

(注意:设置完成后,浏览器打开网页发现都是未连接网络,需要先启动mitmweb.exe或者mitmdump.exe程序才能打开链接)

python爬虫Mitmproxy安装使用学习笔记

根据自己的系统环境下载对应的证书安装

后面点击下载的证书按步骤导入就可以了

2.3、移动端设置代理

以夜神模拟器为例(注意保证手机和电脑在同局域网下)

python爬虫Mitmproxy安装使用学习笔记

设置完代理,打开浏览器访问http://mitm.it/

python爬虫Mitmproxy安装使用学习笔记

下载安装证书

 

三、 mitmdump

官方文档:https://docs.mitmproxy.org/stable/addons-overview/

3.1、插件使用

  • 插件的本质就是一个脚本文件,在Python中就是一个类的实例对象。
  • 此处插件是Counter实例对象,request方法是一个事件
  • 对于request事件,它的参数是一个mitmproxy.http.HTTPFlow的对象。

如:(官方文档例子)

"""
Basic skeleton of a mitmproxy addon.
Run as follows: mitmproxy -s anatomy.py
"""
from mitmproxy import ctx
class Counter:
  def __init__(self):
      self.num = 0
  def request(self, flow):
      self.num = self.num + 1
      ctx.log.info("We've seen %d flows" % self.num)
addons = [
  Counter()
]

上面是一个简单的插件,用于跟踪我们已经看到的流(或更具体的HTTP请求)数量。每次看到新的流量时,它都会使用mitmproxy的内部日志记录机制来宣布其提示。可以在交互式工具的事件日志中或mitmdump的控制台中找到输出。

可以使用mitmdump -s ./anatomy.py运行插件(anatomy.py是创建的文件名)。

3.2、常用事件

def request(self, flow: mitmproxy.http.HTTPFlow):
​ """
​ The full HTTP request has been read.
​ """
def response(self, flow: mitmproxy.http.HTTPFlow):
​ """
​ The full HTTP response has been read.
​ """

3.2.1、request事件

(注意:记得在代理状态下执行,命令:mitmdump -s ./xxx.py

from mitmproxy import http
def request(flow:http.HTTPFlow):  #注意函数名request不能写错
  #获取请求头信息
  print('请求头',flow.request.headers)
  #完整请求地址
  print('请求url',flow.request.url)
  #域名
  print('域名',flow.request.host)
  #请求路径  url除域名之外的内容
  print('请求路径',flow.request.path)
  #返回MultiDictView类型的数据,URL的键值参数
  print('url的键值参数',flow.request.query)
  #请求方法
  print('请求方法',flow.request.method)
  #请求类型
  print('请求类型',flow.request.scheme)
  #获取请求内容
  '''
  print('请求内容',flow.request.get_text)
  print('请求内容类型',type(flow.request.get_text))
  print('请求内容bytes',flow.request.raw_content)
  print('请求内容bytes',flow.request.get_content)
  '''
  if 'https://www.baidu.com' in flow.request.url:
      #取得请求参数wd的值
      print(flow.request.query.get('wd'))
      #取得所有请求参数
      print(list(flow.request.query.keys()))
      #修改请求参数
      flow.request.query.set_all('wd',['python'])
      #打印修改过后的参数
      print(flow.request.query.get('wd'))

3.2.2、response事件

(注意:记得在代理状态下执行,命令:mitmdump -s ./xxx.py

from mitmproxy import http
def response(flow:http.HTTPFlow):  #注意函数名response不能写错
  #状态码
  print('状态码',flow.response.status_code)
  #返回内容,已解码
  print('返回内容',flow.response.text)
  #返回内容, bytes类型
  print('返回内容bytes类型',flow.response.content)
  #取得响应的文本
  print('应的文本',flow.response.get_text)
  #修改响应 的文本
  flow.response.set_text('你的响应内容被修改了!')

3.3、下载图片

(注意:记得在代理状态下执行,命令:mitmdump -q -s ./xxx.py 加-q会使打印更清晰可观)

import os
index = 0
def response(flow):
  global index
  print('===========下载==============')
  print(flow.request.url)
  if flow.request.url[-3:] == 'jpg':
      dir = 'images'
      if not os.path.exists(dir):
          os.mkdir(dir)
      filename = dir+'/'+str(index)+'.jpg'
      with open(filename,'wb') as f:
          f.write(flow.response.get_content())
          index+=1

以上就是python爬虫Mitmproxy安装使用学习笔记的详细内容,更多关于python爬虫Mitmproxy的资料请关注服务器之家其它相关文章!

原文链接:https://blog.csdn.net/qq_46485161/article/details/119967856