scrapy 爬取代理,检查代理的程序放在 pipelines 里面合适吗?

2016-10-03 14:34:51 +08:00
 hujianxin

使用 scrapy 爬取代理,如果想检查代理可用性的话,使用单独的程序检查合适呢,还是放在 pipelines 里面检查合适呢?

我是想通过并发的检查代理。

2206 次点击
所在节点    Python
4 条回复
scnace
2016-10-03 14:58:47 +08:00
我的 proxypool 放在了 pipeline 里检查 考虑到免费代理的生命周期和稳定性 其实抓取代理并维护一个代理的数据结构 开一个协程定期 selfcheck 我觉得更合适点。。。
hujianxin
2016-10-03 16:01:02 +08:00
@scnace 谢谢回复,我也觉得另起一个程序检查好,因为第一遍检查完了,它还是会过期的。另外请教一下,这个代理池使用一个表存储好呢还是使用两个表(一个存储没检查的,一个存储可用的)。这两种那一种方便呢?
scnace
2016-10-03 18:43:31 +08:00
@hujianxin 我用了一个 k v 表存(即所谓的“池”
dsg001
2016-10-03 19:22:00 +08:00
过期代理也不能完全抛弃,有些还会复活的

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/310389

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX