用 scrapy 爬几百万的 url ,现在开一个 scrapy 效率有点慢。
考虑如何多开几个 scrapy ,通过分割队列来运行。
现在遇到的情况是 复制原来项目,修改 spider 名字以及 setting 部分设置。 运行报错找不到 spider
仅仅复制原来项目,修改队列。 发现还是原来的 spider
请大家指教下,如何通过分割队列运行 scarpy
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.