scrapy模拟登录微博

时间:2024-05-02 09:05:32

http://blog.****.net/pipisorry/article/details/47008981

这篇文章是介绍使用scrapy模拟登录微博,并爬取微博相关内容。关于登录流程为嘛如此设置,请参考[微博登录过程分析]。

截包分析

下载软件Fiddler for .NET2查看相关登录流程信息。运行python程序访问和直接在浏览器中刷新页面都可以在fiddler中找到网络包的相关信息。

Note: fiddler是抓包用的,是独立的工具。类似这种前端登录动作,也可以用casperjs。还可以用浏览器嵌入工具HttpWatch,截包工具如Firefox的插件httpfox。

获取登录入口

微博的登录入口有好几个,其实只要登录的逻辑不变, 其它的入口也是可以的。在微博登录界面分析html源码,获得其登录界面为http://weibo.com/login.php

查看需要的postdata

登录微博前,我们要先post相关数据。打开fiddler2,再登录微博,并查看fiddler2的内容变化

scrapy模拟登录微博

图中webForms所有数据就是我们在模拟登录时需要填入的数据.这些数据中除了su、sp、rsakv、servertime、nonce是经过js处理动态生成的,其它都是个固定值(其实需要的也就只有pubkey、url、pwencode和nonce、pubkey、retcode、exectime、pcid,其它的不用加入postdata,甚至和后面的有些可以不用添加(lz未验证)),可以在代码中写死。所以你的postdata只要提交su、sp、servertime、nonce、url、pwencode和pubkey、retcode、exectime、pcid。

Note: su是js处理后的用户名;sp是js处理后的密码;servertime、nonce 、pubkey都是登录时候需要使用的,用于post信息(sp)的加密;pwnencode=rsa2是weibo登录对密码的加密方式。

获得postdata

当然上面的信息可以用抓包工具抓到,但是我们要在程序中获得这些post信息。

1. 在浏览器登录后,fiddler2会抓到另一个login.sina.com.cn下的js文件http://login.sina.com.cn/sso/prelogin.php?entry=weibo&callback=sinaSSOController.preloginCallBack&su=&rsakt=mod&client=ssologin.js(v1.4.18),这个js文件就是当用户输入用户名时,网页发送用户名到js文件中,js文件处理用户名并返回su、servertime、nonce、url、pwencode和rsakv、retcode、exectime、pcid这些post数据,用于后面的密码加密并提交到后续网站,在下面的textview中可以看到

Note:1. 上面的js地址是在未登录的情况下抓包得到,并且后面的&_=1441377653804%20HTTP/1.1已经被lz省略了,后面的数字实际上是str(time.time()).replace('.',
'')这个东西,对于获取postdata没用。

2. 上面url的su=部分, 这里的su是经过js处理后的用户名,在后面加入js处理后的用户名,js处理后的用户名当然是登录后得到的

scrapy模拟登录微博

2. 其实手动在浏览器中输入上面的js地址,也会得到相应的post数据输出

scrapy模拟登录微博

scrapy模拟登录微博

可以看到

如果su-为空,得到:

sinaSSOController.preloginCallBack({"retcode":0,"servertime":1441379724,"pcid":"gz-ca74a2cf2705a177abe404a62a1140d71d09","nonce":"89VNFB","pubkey":"EB2A38568661887FA180BDDB5CABD5F21C7BFD59C090CB2D245A87AC253062882729293E5506350508E7F9AA3BB77F4333231490F915F6D63C55FE2F08A49B353F444AD3993CACC02DB784ABBB8E42A9B1BBFFFB38BE18D78E87A0E41B9B8F73A928EE0CCEE1F6739884B9777E4FE9E88A1BBE495927AC4A799B3181D6442443","rsakv":"1330428213","uid":"2835992634","exectime":4})

填入js处理后的用户名得到:

sinaSSOController.preloginCallBack({"retcode":0,"servertime":1441380255,"pcid":"gz-3ab638aed06967c056296dca13e50a4a6333","nonce":"TCEW1Y","pubkey":"EB2A38568661887FA180BDDB5CABD5F21C7BFD59C090CB2D245A87AC253062882729293E5506350508E7F9AA3BB77F4333231490F915F6D63C55FE2F08A49B353F444AD3993CACC02DB784ABBB8E42A9B1BBFFFB38BE18D78E87A0E41B9B8F73A928EE0CCEE1F6739884B9777E4FE9E88A1BBE495927AC4A799B3181D6442443","rsakv":"1330428213","exectime":3})

Note: 登录后的结果,仅仅是少了一个uid,同时所有人的pubkey是一样的,因为是公钥嘛。

皮皮Blog

模拟js处理用户名及密码

浏览器中输入http://login.sina.com.cn/js/sso/ssologin.js得到这个js文件,复制内容到js编辑器中(lz是在pycharm中创建js文件格式化后查阅的)查看。

Note: 在未登录状态,浏览器中刷新登录界面http://login.sina.com.cn/signup/signin.php?entry=sso这个页面,fiddler2就可以抓到那个ssologin.js文件

查看ssologin.js的makeRequest函数:

var makeRequest = function (username, password, savestate) {

        var request = {

            entry: me.getEntry(),

            gateway: 1,

            from: me.from,

            savestate: savestate,

            useticket: me.useTicket ? 1 : 0

        };

        if (me.failRedirect) {

            me.loginExtraQuery.frd = 1

        }

        request = objMerge(request, {pagerefer: document.referrer || ""});

        request = objMerge(request, me.loginExtraFlag);

        request = objMerge(request, me.loginExtraQuery);

        request.su = sinaSSOEncoder.base64.encode(urlencode(username));

        if (me.service) {

            request.service = me.service

        }

        if ((me.loginType & rsa) && me.servertime && sinaSSOEncoder && sinaSSOEncoder.RSAKey) {

            request.servertime = me.servertime;

            request.nonce = me.nonce;

            request.pwencode = "rsa2";

            request.rsakv = me.rsakv;

            var RSAKey = new sinaSSOEncoder.RSAKey();

            RSAKey.setPublic(me.rsaPubkey, "10001");

            password = RSAKey.encrypt([me.servertime, me.nonce].join("\t") + "\n" + password)

        } else {

            if ((me.loginType & wsse) && me.servertime && sinaSSOEncoder && sinaSSOEncoder.hex_sha1) {

                request.servertime = me.servertime;

                request.nonce = me.nonce;

                request.pwencode = "wsse";

                password = sinaSSOEncoder.hex_sha1("" + sinaSSOEncoder.hex_sha1(sinaSSOEncoder.hex_sha1(password)) + me.servertime + me.nonce)

            }

        }

        request.sp = password;

        try {

            request.sr = window.screen.width + "*" + window.screen.height

        } catch (e) {

        }

        return request

    };

用户名加密

从代码中我们可以知道su就是经过html字符转义再转成base64编码

python中我们可以这样转化:

def get_su(self, user_name):
    '''
    对用户名加密
    '''
    username_ = urllib.quote(user_name)  # html字符转义
]

密码加密

weibo登录对密码有两种加密方式:rsa2与wsse,我们从上面的密码加密方式pwnencode=rsa2可知, js处理走的是这一部分逻辑。(wsse逻辑是通过一个if else判断得到,但我们登录一般是rsa2,wsse是干嘛的没深究)

并且servertime, nonce, pubkey都被用上了,我们只要把这部分js在python中转义就行了。

def get_sp_rsa(self, password, pubkey, servertime, nonce):
    '''
    对密码加密,http://login.sina.com.cn/js/sso/ssologin.js中makeRequest的python实现
    '''
    # 公钥pubkey在prelogin得到,固定值
), )  # 10001对应的10进制,创建公钥
    message = ('\t').join([str(servertime), str(nonce)]) + '\n' + password
    encropy_pwd = rsa.encrypt(message, key)
    return binascii.b2a_hex(encropy_pwd)  # 将加密信息转换为16进制

Note:

1. 0x10001要转化成10进制的65537, 还有要经过servertime + +'\t' + nonce + '\n' + passwd拼接字符串再进行Rsa加密, 最后转成16进制即得到sp.

2. 使用rsa加密要安装rsa拓展包 pip install rsa

皮皮Blog

模拟登录微博

以上我们分析了如何获取post值,知道哪些数据是需要提交的,也知道怎么处理用户名和密码来获取su、sp,下面讲解如何利用这些信息模拟登录新浪微博。

1. 请求http://login.sina.com.cn/sso/prelogin.php?entry=weibo&callback=sinaSSOController.preloginCallBack&su=&rsakt=mod&client=ssologin.js(v1.4.18),这个相当于登录前请求相关postdata的地址,在返回的response中获取servertime,nonce,pubkey等值

def get_prelogin_data(self):
    '''
    登录前,获得之后要提交的数据
    :return:
    '''
    prelogin_url = globleOptions.prelogin_url
    post_ori_text = requests.get(prelogin_url).text
    json_data )
    json_data = json.loads(json_data)
    prelogin_data = dict(json_data)
    for key, value in prelogin_data.items():
        prelogin_data[key] = str(value)
    # print(prelogin_data)
    return prelogin_data

2. 模拟js计算加密后的用户名su、模拟js计算加密后的密码sp(加上上一步获取的pubkey、servertime、nonce)

3. 把1中得到的所有postdata与其它固定值su、sp一起提交到http://login.sina.com.cn/sso/login.php?client=ssologin.js(v1.4.18),这个是请求登录的地址

Note: postdata要手动添加这两个数据,它们是1中返回时解析不到的,只有在抓包中看到。

post_data.update({'pwencode': 'rsa2', 'url': r'http://weibo.com/ajaxlogin.php?framelogin=1&callback=parent.sinaSSOController.feedBackUrlCallBack'})

这个地址会跳转到passport.weibo.com/wbsso/login/,response会返回我们需要的地址,用正则表达式取出这个地址并请求, 得到如下正则表达式结果则登录成功

http://passport.weibo.com/wbsso/login?ssosavestate=1472919508&url=http%3A%2F%2Fweibo.com%2Fajaxlogin.php%3Fframelogin%3D1%26callback%3Dparent.sinaSSOController.feedBackUrlCallBack%26sudaref%3Dweibo.com&ticket=*****&retcode=0

retcode=101则表示登录失败

def start_requests(self):
    '''
    获取postdata并提交到登录地址
    '''
    login_url = globleOptions.login_url
    username = globleOptions.username
    password = globleOptions.password

    post_data = self.get_postdata(username, password)
    # headers可以不用添加
    headers = globleOptions.headers

    # 将数据提交到登录地址
    return [scrapy.http.FormRequest(url=login_url, formdata=post_data, callback=self.access_new_loginurl)]

4. 还要请求上面得到的这个长地址(实际中的新登录地址),也就是得到重定位信息后,解析得到最终跳转到的新登录URL打开该URL后,服务器才会自动将用户登陆信息写入cookie,登陆成功。只有写入了cookie,后面的登录才会顺利。

def access_new_loginurl(self, response):
    '''
    获取新的登录地址并提交request访问, 自动写入cookie, 下次就可以直接访问其它网站了
    '''
    # print(response.body.decode('gb2312'))
)
    # print('new_login_url : %s ' % new_login_url)
    request = scrapy.http.Request(new_login_url)  # 如果没有callback,就默认为parse方法
    return request

5. 这时cookie已经写入,我们再访问微博相关的网页,就可以直接得到登录后的页面数据了

def parse(self, response):
    '''
    登录后的爬虫,parse方法会自动request遍历start_urls中的url
    '''
    for url in self.start_urls:
        request = scrapy.http.Request(url=url, callback=self.parse_item)
        # request = response.request.replace(url=globleOptions.redir_url, callback=self.parse_item)
        yield request
def parse_item(self, response):
    '''
    处理items
    '''
]
    # print(filename)
    filename = re.sub('/|\?', '.', filename) + '.html'
    with open(os.path.join('./TmpFiles', filename), 'wb') as html_file:
        html_page = response.body
        html_file.write(html_page)

Note:至于代码实现,可以用scrapy,也可以用python自带的urllib(当然这个明显爬取速度更快)

保存请求的cookie

只要把保存的cookie持久化到文件, scrapy每次请求时带上这个cookie就可以了。

from:http://blog.****.net/pipisorry/article/details/47008981