scrapy 的请求问题

2018-11-11 10:15:08 +08:00
 moxiaowei

我在写爬虫,遇到一个问题。大概是这样的,我先请求首页,然后拿到分页总数,然后按分页请求每一页的数据,但是分页的数据,有时候会请求不到,那么我想,请求不到吧 我再写个方法再去请求一次,再请求不到就算了。但是分页请求即使请求不到数据,但是也不会再去请求下一次。不知道为啥。

爬虫内代码为:

   def parse(self, response):

            while pageNow < pageTotal:

                    yield scrapy.Request(url, self.parseNext)


   def parseNext(self, response):

            #如果失败了
            yield scrapy.Request(url, self,parseData)

   def parseData(self, response):

            #问题是不走到这个方法里面来
1889 次点击
所在节点    Python
8 条回复
zhijiansha
2018-11-11 10:18:37 +08:00
写个中间件
yangyaofei
2018-11-11 10:22:00 +08:00
同样的请求第二次被过滤掉了?加 dont-filte
moxiaowei
2018-11-11 10:22:25 +08:00
@zhijiansha 中间件 download middle 是写了的,但是,download middle 我是用来使用代理的。
moxiaowei
2018-11-11 10:23:36 +08:00
@yangyaofei 好的 谢谢 我来试试
moxiaowei
2018-11-11 10:43:45 +08:00
@yangyaofei 谢谢 确实是这样的
sunorg
2018-11-11 10:49:14 +08:00
用 chrome headless
moxiaowei
2018-11-11 11:02:49 +08:00
@sunorg 什么?
dreasky
2018-11-11 11:32:25 +08:00
参考 scrapy 内置的 RetryMiddleware 和 DownloadTimeoutMiddleware

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/506616

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX