爬虫蜘蛛Scrapy架构概述-体系结构及其组件的交互方式(55)python Scrapy教程1.51以上版本
数据流
该引擎获得初始请求从抓取 蜘蛛。Scrapy中的数据流由执行引擎控制,如下所示:
- 该引擎安排在请求 调度程序和要求下一个请求抓取。
- 该计划返回下一请求的引擎。
- 该引擎发送请求到 下载器,通过 下载器中间件(见
process_request()
)。 - 页面完成下载后, Downloader会生成一个Response(带有该页面)并将其发送到Engine,并通过 Downloader Middlewares(请参阅 参考资料
process_response()
)。 - 该引擎接收来自响应 下载器并将其发送到所述 蜘蛛进行处理,通过蜘蛛中间件(见
process_spider_input()
)。 - 该蜘蛛处理响应并返回刮下的项目和新的要求(跟随)的 引擎,通过 蜘蛛中间件(见
process_spider_output()
)。 - 该引擎发送处理的项目,以 项目管道,然后把处理的请求的调度,并要求今后可能要求抓取。
- 该过程重复(从步骤1开始),直到调度程序不再有请求为止 。
组件
Scrapy引擎
引擎负责控制系统所有组件之间的数据流,并在发生某些操作时触发事件。有关详细信息,请参阅上面的 数据流部分。
调度程序
调度程序接收来自引擎的请求,并在引擎请求它们时将它们排入队列以便稍后(也发送到引擎)。
下载器
Downloader负责获取网页并将其提供给引擎,引擎又将它们提供给蜘蛛。
蜘蛛
蜘蛛是由Scrapy用户编写的自定义类,用于解析响应并从中提取项目(也称为已删除项目)或其他要遵循的请求。有关更多信息,请参阅蜘蛛。
项目管道
物品管道负责在物品被蜘蛛提取(或刮除)后处理物品。典型的任务包括清理,验证和持久性(如将项目存储在数据库中)。有关更多信息,请参阅项目管道。
评论被关闭。