为什么 scrapy 爬虫没有一次性爬完 Rule 所需要的所有数据呢?

2017-05-18 11:37:35 +08:00
 Jessss

我用 scrapy 和代理池爬拉勾网,中间没有报错,但是每次运行代码都只是爬一两万条数据就结束,下次运行又有新的数据,为什么不会一次性爬完所有数据呢?

望大神们指点,谢谢!

2667 次点击
所在节点    Python
6 条回复
littleylv
2017-05-18 11:43:55 +08:00
是不是限制了深度了呢?
Jessss
2017-05-18 11:50:49 +08:00
@littleylv 没有设置深度或者广度之类的
dsg001
2017-05-18 14:35:19 +08:00
深层的模板有变化导致规则抓取不到,检查下最终页的模板是否匹配规则
Jessss
2017-05-19 14:04:58 +08:00
@dsg001 其他页面也符合匹配规则的。中间尝试修改了 rule,多试几次居然被禁了,现在感觉是我的代理中间件有问题,好像没用到
dsg001
2017-05-19 18:25:27 +08:00
@Jessss 返回脏数据吗?只能加日志,一步步调试检查
Jessss
2017-05-21 16:43:25 +08:00
@dsg001 数据是正常的,我试试加日志看看先

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/362174

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX