最近用 scrapy,因为网站限制,经常抓到一定数量的时候出现:
2018-01-25 23:12:42 [scrapy.core.scraper] ERROR: Error downloading <GET
https://XXX.com/id=139988706>: [<twisted.python.failure.Failure twisted.internet.error.ConnectionDone: Connection was closed cleanly.>]
IP 被限制了,这时 scrapy 会继续的去尝试抓取剩下的页面,耗费时间
我是想如果发现这种情况,就主动发起 close_spider,结束抓取。
请问大婶们,该在哪里进行配置?
yield scrapy.Request(url,self.parse_item) ——这里可以吗?如何配置?
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
https://www.v2ex.com/t/426007
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.