错误名:TypeError: to_bytes must receive a unicode, str or bytes object, got int
错误翻译:类型错误:to_bytes必须接收unicode、str或bytes对象,得到int to_bytes也就是需要传给服务器的二进制数据
今天我企图用scrapy爬虫框架爬取阿里巴巴以及百度和腾讯的招聘网站的职位信息,在简单的进行数据分析。但是当我在写框架代码时,遇到了一个错误,我找了很久,最后发现只是一个小小的错误,就是字符串的格式出错了,我足足弄了两个小时。唉,真是想骂自己啊。。。
先来上我的错误代码
from lxml import etree import scrapy from scrapy.linkextractors import LinkExtractor from scrapy.spiders import Rule,CrawlSpider from alibaba.items import AlibabaItem import json class AlibabaSpider(CrawlSpider): name = "alibabahr" allowed_domains = ["alibaba.com"] def __init__(self,pageIndex): #由于阿里巴巴的限制,他们将职位信息放在了一个json文件中,用js进行数据传输,但是也没有关系,还是一样可以抓取到 下面是json数据抓取的链接URL self.start_urls = ["https://job.alibaba.com/zhaopin/socialPositionList/doList.json"] self.pageIndex = pageIndex #这是需要抓取的页数 def start_requests(self): for page in range(int(self.pageIndex)): yield scrapy.FormRequest( url = self.start_urls[0], callback = self.parse, formdata = {"pageIndex":page,"pageSize":10}, #因为阿里的一个json文件中,是放10个职位的信息,也就是一页的信息,官网上是一 #页10个职位信息 大家看到那个"pageIndex":page,"pageSize":10 了吗,那个value值在这里是一个int型的数据,但是在进行post数据传输时,scrapy.FormRuquest #这个方法默认是传输字符串的 所以就会报那个错误,我们只需要把那个10和page变成str数据结构就行了。 #将最后那句改成 : formdata = {"pageIndex":str(page),"pageSize":"10"}, 就可以了
) def parse(self, response): content = json.loads(response.body)['returnValue'] pageIndex = content['pageIndex'] jobDates = content['datas'] print("pageIndex:" + str(pageIndex)) print(jobDates)
改正错误之后,显示的信息是真确的,如图: