Scrapy-简单介绍

时间:2023-03-09 03:52:05
Scrapy-简单介绍

Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架。 可以应用在包括数据挖掘,信息处理或存储历史数据等一系列的程序中。

其最初是为了 页面抓取 (更确切来说, 网络抓取 )所设计的, 也可以应用在获取API所返回的数据(例如 Amazon Associates Web Services ) 或者通用的网络爬虫。

编写一个Scrapy项目需要以下几个简单的流程:

  创建一个Scrapy项目

scrapy startproject projectName
cd projectName
scrapy genspider baidu baidu.com

  Scrapy-简单介绍

  然后就会在你的集成化工具上出现创建的项目:

  Scrapy-简单介绍

  定义提取的Item(你需要爬取的数据的容器)

 import scrapy
 class DmozItem(scrapy.Item):
     title = scrapy.Field()
     link = scrapy.Field()
     desc = scrapy.Field()

  编写爬取网站的 spider 并提取 Item

 import scrapy
 class BaiduSpider(scrapy.Spider):
     name = 'baidu'
     allowed_domains = ['baidu.com']
     start_urls = ['http://baidu.com/']

     def parse(self, response):
         #主要爬取代码编写区
          pass

  编写 Item Pipeline 来存储提取到的Item(即数据)

 class ProjectnamePipeline(object):
     def process_item(self, item, spider):
         #对爬取到的数据进行处理
         return item

  运行项目

    方法一:cmd命令行输入运行 Scrapy 项目

scrapy crawl baidu #这里的baidu是spider的名字不是项目名,是唯一的

    方法二:.py文件运行 Scrapy 项目

    创建 runBaidu.py 文件

    Scrapy-简单介绍

 from scrapy import cmdline
 cmdline.execute("scrapy crawl baidu".split())