RT,现在鄙人有两个需求:
1.设置 scrapy 的每个站的最大爬行时间。
由于最近需要批量采集一些网站,然后部分网站可能是论坛和博客之类的.
我这边如果没法预判网站类型的话,希望在 1-2 小时候把超时的网站直接 ban 掉。
但谷歌了下并没有看见 setting.py 里有解决方案。
2.条件触发放弃爬行某个目录
在爬行的时候,可能会遇到多重目录,比如日期+随机码,案例如下:
http://test.com/mua/213213/123213.shtml
针对这类我已经设置了去重算法,但是无奈一旦爬到那个目录,他会一直爬下去。
就算立即抛弃已经爬到的目录也会耽误很久。
所以想问问各位大佬,比如有没有到了某个频率触发条件,可以直接放弃 mua 目录下的爬行任务的法子?
同样没有谷歌到解决方案。
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.