1. scrapy简介
scrapy是基于事件驱动的Twisted框架下用纯python写的爬虫框架。很早之前就开始用scrapy来爬取网络上的图片和文本信息,一直没有把细节记录下来。这段时间,因为工作需要又重拾scrapy爬虫,本文和大家分享下,包你一用就会, 欢迎交流。
1.1 scrapy框架
scrapy框架包括5个主要的组件和2个中间件Hook。
从上可知,我们只要实现SPIDERS(要爬什么网站,怎么解析)和ITEM PIPELINES(如何处理解析后的内容)就可以了。其他的都是有框架帮你完成了。(图片来自网络,如果侵权联系必删)
1.2 scrapy数据流
我们再详细看下组件之间的数据流,会更清楚框架的内部运作。(图片来自网络,如果侵权联系必删)
第1步到第8步,一个请求终于完成了。是不是觉得很多余?ENGIINE夹在中间当传话筒,能不能直接跳过?可以考虑跳过了会怎么样。
这里分析一下
2. 基础:XPath
写爬虫最重要的是解析网页的内容,这个部分就介绍下通过XPath来解析网页,提取内容。
2.1 HTML节点和属性
(图片来自网络,如果侵权联系必删)
2.2 解析语法
一个例子
- response.xpath('//div[@class="taglist"]/ul//li//a//img/@data-original').get_all()
- # 获取所有class属性(css)为taglist的div, 下一个层ul下的所有li下所有a下所有img标签下data-original属性
- # data-original这里放的是图片的url地址
更多详见
http://zvon.org/comp/r/tut-XPath_1.html#Pages~List_of_XPaths
3. 安装部署
Scrapy 是用纯python编写的,它依赖于几个关键的python包(以及其他包):
- # 安装
- pip install scrapy
4. 创建爬虫项目
- scrapy startproject sexy
- # 创建一个后的项目目录
- # sexy
- # │ scrapy.cfg
- # │
- # └─sexy
- # │ items.py
- # │ middlewares.py
- # │ pipelines.py
- # │ settings.py
- # │ __init__.py
- # │
- # ├─spiders
- # │ │ __init__.py
- # │ │
- # │ └─__pycache__
- # └─__pycache__
- # 执行 需要到scrapy.cfg同级别的目录执行
- scrapy crawl sexy
从上可知,我们要写的是spiders里的具体的spider类和items.py和pipelines.py(对应的ITEM PIPELINES)
5. 开始scrapy爬虫
5.1 简单而强大的spider
这里实现的功能是从图片网站中下载图片,保存在本地, url做了脱敏。需要注意的点在注释要标明
可以看到parse实现的时候没有转发给ITEM PIPELINES,直接处理了。这样简单的可以这么处理,如果业务很复杂,建议交给ITEM PIPELINES。后面会给例子
- # 目录结果为:spiders/sexy_spider.py
- import scrapy
- import os
- import requests
- import time
- def download_from_url(url):
- response = requests.get(url, stream=True)
- if response.status_code == requests.codes.ok:
- return response.content
- else:
- print('%s-%s' % (url, response.status_code))
- return None
- class SexySpider(scrapy.Spider):
- # 如果有多个spider, name要唯一
- name = 'sexy'
- allowed_domains = ['uumdfdfnt.94demo.com']
- allowed_urls = ['http://uumdfdfnt.94demo.com/']
- # 需要爬取的网站url加到start_urls list里
- start_urls = ['http://uumdfdfnt.94demo.com/tag/dingziku/index.html']
- save_path = '/home/sexy/dingziku'
- def parse(self, response):
- # 解析网站,获取图片列表
- img_list = response.xpath('//div[@class="taglist"]/ul//li//a//img/@data-original').getall()
- time.sleep(1)
- # 处理图片, 具体业务操作, 可交给items, 见5.2 items例子
- for img_url in img_list:
- file_name = img_url.split('/')[-1]
- content = download_from_url(img_url)
- if content is not None:
- with open(os.path.join(self.save_path, file_name), 'wb') as fw:
- fw.write(content)
- # 自动下一页(见5.3 自动下一页)
- next_page = response.xpath('//div[@class="page both"]/ul/a[text()="下一页"]/@href').get()
- if next_page is not None:
- next_page = response.urljoin(next_page)
- yield scrapy.Request(next_page, callback=self.parse)
5.2 items和pipline例子
这里说明下两个的作用
我们来改写下上面的例子
- import scrapy
- class SexyItem(scrapy.Item):
- # define the fields for your item here like:
- # name = scrapy.Field()
- img_url = scrapy.Field()
- import scrapy
- import os
- # 导入item
- from ..items import SexyItem
- class SexySpider(scrapy.Spider):
- # 如果有多个spider, name要唯一
- name = 'sexy'
- allowed_domains = ['uumdfdfnt.94demo.com']
- allowed_urls = ['http://uumdfdfnt.94demo.com/']
- # 需要爬取的网站url加到start_urls list里
- start_urls = ['http://uumdfdfnt.94demo.com/tag/dingziku/index.html']
- save_path = '/home/sexy/dingziku'
- def parse(self, response):
- # 解析网站,获取图片列表
- img_list = response.xpath('//div[@class="taglist"]/ul//li//a//img/@data-original').getall()
- time.sleep(1)
- # 处理图片, 具体业务操作, 可交给yield items
- for img_url in img_list:
- items = SexyItem()
- items['img_url'] = img_url
- yield items
- import os
- import requests
- def download_from_url(url):
- response = requests.get(url, stream=True)
- if response.status_code == requests.codes.ok:
- return response.content
- else:
- print('%s-%s' % (url, response.status_code))
- return None
- class SexyPipeline(object):
- def __init__(self):
- self.save_path = '/tmp'
- def process_item(self, item, spider):
- if spider.name == 'sexy':
- # 取出item里内容
- img_url = item['img_url']
- # 业务处理
- file_name = img_url.split('/')[-1]
- content = download_from_url(img_url)
- if content is not None:
- with open(os.path.join(self.save_path, file_name), 'wb') as fw:
- fw.write(content)
- return item
- ITEM_PIPELINES = {
- 'sexy.pipelines.SexyPipeline': 300,
- }
5.3 自动下一页
有时候我们不仅要爬取请求页面中的内容,还要递归式的爬取里面的超链接url,特别是下一页这种,解析内容和当前页面相同的情况下。一种笨方法是手动加到start_urls里。大家都是聪明人来试试这个。
完美了,完整例子见5.1
- next_page = response.xpath('//div[@class="page both"]/ul/a[text()="下一页"]/@href').get()
- if next_page is not None:
- next_page = response.urljoin(next_page)
- yield scrapy.Request(next_page, callback=self.parse)
5.4 中间件
这里举一个添加模拟浏览器请求的方式,防止爬虫被封锁。重写process_request
- from scrapy.contrib.downloadermiddleware.useragent import UserAgentMiddleware
- import random
- agents = ['Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0;',
- 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv,2.0.1) Gecko/20100101 Firefox/4.0.1',
- 'Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11',
- 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11',
- 'Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; 360SE)']
- class RandomUserAgent(UserAgentMiddleware):
- def process_request(self, request, spider):
- ua = random.choice(agents)
- request.headers.setdefault('User-agent',ua,)
统一要在settings.py中开启下载中间件,数值表示优先级
- DOWNLOADER_MIDDLEWARES = {
- 'sexy.middlewares.customUserAgent.RandomUserAgent': 20,
- }
5.5 可用配置settings.py
除了上面提供的pipline配置开启和中间件配置外,下面介绍几个常用的配置
所有的配置详见 https://doc.scrapy.org/en/latest/topics/settings.html
6. 总结
相信从上面的介绍,你已经可以动手写一个你自己的爬虫了。我也完成了做笔记的任务了。scrapy还提供更加详细的细节,可参见https://docs.scrapy.org/en/latest/。
最后总结如下:
新闻标题:5分钟快速掌握scrapy爬虫框架
URL分享:http://www.shufengxianlan.com/qtweb/news46/342296.html
网站建设、网络推广公司-创新互联,是专注品牌与效果的网站制作,网络营销seo公司;服务项目有等
声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联