Python模拟登录实战(一)

时间:2022-05-25 20:38:39

今天,学习了模拟登录新浪微博。模拟登录主要有两种方式,一、利用Cookie;二、模仿浏览器的请求,发送表单。

法一:

Cookie:指某些网站为了辨别用户身份而储存在用户本地终端上的数据(通常经过加密)。当登录一个网站时,网站往往会要求用户输入用户名和密码,并且用户可以勾选“下次自动登录”。如果勾选了,那么下次访问同一网站时,用户会发现没输入用户名和密码就已经登录了。这正是因为前一次登录时,服务器发送了包含登录凭据(用户名加密码的某种加密形式)的Cookie到用户的硬盘上。第二次登录时,(如果该Cookie尚未到期)浏览器会发送该Cookie,服务器验证凭据,于是不必输入用户名和密码就让用户登录了。

代码格式如下:

cookie = {'Cookie' : ''}
html = requests.get(url,cookies=cookie)

法二:

通过模拟浏览器请求的方式来模拟登录微博。

1、先手动登录微博,推荐移动端(PC端用户名和密码都进行了极其复杂的加密,不推荐)

Python模拟登录实战(一)

发现表单中‘password_xxxx,vk,capId’是不知道的,那就要通过分析原始登陆界面来获取了。

Python模拟登录实战(一)

Python模拟登录实战(一)

现将它们提交表单即可,代码如下:

 #!/usr/bin/env python
# -*- coding:utf- -*-
__author__ = 'ziv·chan' from lxml import etree
from PIL import Image
import requests
import re user_agent = 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/50.0.2661.94 Safari/537.36'
referer = 'http://login.weibo.cn/login/?ns=1&revalid=2&backURL=http%3A%2F%2Fweibo.cn%2F&backTitle=%CE%A2%B2%A9&vt=' headers = {
'User-Agent' : user_agent,
'Host' : 'login.weibo.cn',
'Origin' : 'http://login.weibo.cn',
'Referer' : referer
} session = requests.session() # 注意URL的选择
url = 'https://login.weibo.cn/login/'
html = session.get(url,headers=headers)
pageCode = html.text
pattern = re.compile('password" name="(.*?)".*?name="vk" value="(.*?)".*?"capId" value="(.*?)"',re.S)
items = re.findall(pattern,pageCode)[]
password,vk,capId = items
# 上面就依次获得了password_xxxx,vk,capId cap_url = 'http://weibo.cn/interface/f/ttt/captcha/show.php?cpt=' + items[]
captcha = session.get(cap_url,headers=headers)
with open('cap.png','wb') as f:
f.write(captcha.content)
f.close()
im = Image.open('cap.png')
im.show()
im.close
cap_code = raw_input('请输入验证码:') form_data = {
'mobile' : '',
password : 'ChelseaFC.1',
'code' : cap_code,
'remember' : 'on',
'backURL' : 'http%3A%2F%2Fweibo.cn%2F',
'backTitle' : '微博',
'tryCount' : '',
'vk' : vk,
'capId' : capId,
'submit' : '登录'
} session.post(url,data=form_data,headers=headers) url_logined = 'http://weibo.cn/'
html_2 = session.get(url_logined)
html_2.encoding = 'utf-8'
pageCode_2 = html_2.content
Selector = etree.HTML(pageCode_2)
content = Selector.xpath('//span[@class="ctt"]')
for each in content:
text = each.xpath('string(.)')
print text

以上。