scrapy 如何设置每个网站最大爬行时间,以及实现条件触发放弃某个目录

2018-06-05 14:03:18 +08:00
 akmonde

RT,现在鄙人有两个需求:

1.设置 scrapy 的每个站的最大爬行时间。

由于最近需要批量采集一些网站,然后部分网站可能是论坛和博客之类的.
我这边如果没法预判网站类型的话,希望在 1-2 小时候把超时的网站直接 ban 掉。
但谷歌了下并没有看见 setting.py 里有解决方案。

2.条件触发放弃爬行某个目录

在爬行的时候,可能会遇到多重目录,比如日期+随机码,案例如下:
http://test.com/mua/213213/123213.shtml

针对这类我已经设置了去重算法,但是无奈一旦爬到那个目录,他会一直爬下去。
就算立即抛弃已经爬到的目录也会耽误很久。
所以想问问各位大佬,比如有没有到了某个频率触发条件,可以直接放弃 mua 目录下的爬行任务的法子?
同样没有谷歌到解决方案。
1829 次点击
所在节点    Python
1 条回复
akmonde
2018-06-05 21:48:06 +08:00
没人么...v 站的大佬们可以给点建议么?

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/460559

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX