我搜索别人的例子,只找到了: http://alexeyvishnevsky.com/?p=26
我为了方便修改,我是直接把原本官方文档里的 set ()换成了 BloomFilter ()
想确认下这么写是正确的吗?
from pybloom import BloomFilter
from scrapy.exceptions import DropItem
class Pipeline(object):
def __init__(self):
self.bf = BloomFilter(capacity=10000, error_rate=0.0001)
def process_item(self, item, spider):
md5=md5(url)
if md5 in self.bf:
raise DropItem("Duplicate item found: %s" % md5)
else:
self.bf.add(md5)
我想分布式处理爬虫,看了 scrapy-redis: https://github.com/darkrho/scrapy-redis
看他启动 distributed crawling 是通过 pause/resume 实现的吗?能不能事先设置爬虫的数量来代替?
并且, 他的 scraping 和 post-processing 是分开的吗?也就是 scrpaing/crawling 得到 item 是分布式的,但后处理 item 比方说 item pipeline 之类的还是单线程的?
大家有什么好的分布式的 scrapy 爬虫包推荐吗?
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.