码迷,mamicode.com
首页 > 其他好文 > 详细

scrapy框架(三)

时间:2019-12-22 18:04:35      阅读:74      评论:0      收藏:0      [点我收藏+]

标签:val   创建   exp   如何   request   var   ESS   url   连接   

scrapy框架(三)

CrawlSpider类

创建CrawlSpider
 # 创建项目后
 $ scrapy genspider -t crawl spider_name website_domain
 ?
 url 就是你想要爬取的网址
 注意:分析本地文件是一定要带上路径,scrapy shell默认当作url
 ?

 

介绍:

CrawlSpider类继承自spider类

CrawlSpiders url规则 自动生成Request请求

 

Rule
 Rule用来定义CrawlSpider的爬取规则
 ?
 参数:
 link_extractor Link Extractor的实例对象,它定义如何从每个已爬网页面中提取链接。
 callback  回调函数
 cb_kwargs  是一个包含要传递给回调函数的关键字参数的dict
 follow 它指定是否应该从使用此规则提取的每个响应中跟踪链接。
 process_links  用于过滤连接的回调函数
 process_request  用于过滤请求的额回调函数
 ?

 

LinkExtractor 对象
 参数:
  allow 正则表达式 满足的url 会被提取出来
 ?
  deny 正则表达式 满足的url 不会被提取出来
 ?
  restrict_xpaths 路径表达式 符合路径的标签提取出来
 ?
 LinkExractor也是scrapy框架定义的一个类
 它唯一的目的是从web页面中提取最终将被跟踪的额连接。
 ?
 我们也可定义我们自己的链接提取器,只需要提供一个名为
 extract_links的方法,它接收Response对象
 并返回scrapy.link.Link对象列表。
 ?

 

scrapy框架(三)

标签:val   创建   exp   如何   request   var   ESS   url   连接   

原文地址:https://www.cnblogs.com/yelan5222/p/12080283.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!