多个 scrapy 爬虫启动问题

2021-01-11 15:53:16 +08:00
 Luzaiv7

有挺多 scarpy 的爬虫,受限于代理数量,没法一次性全部启动。于是想找到一个类似队列,取哪个爬哪个的方法。 目前试过 进程池、scrapy 接口 都不是很理性 进程池的问题:

每个进程消费完第一个爬虫,进程就会关闭

scrapy 接口的问题:

必须按顺序爬,假如其他进程跑完,剩下未跑完的爬虫还是得一个个按顺序跑,浪费时间

以下是进程池的代码

from scrapy.crawler import CrawlerProcess
from multiprocessing import Pool

def _crawl_main_program(spider, settings):
	# spider: 爬虫
    process = CrawlerProcess(settings)
    process.crawl(spider)
    process.start()


def _crawl_running(crawl_map: dict, settings: dict, max_processes=5):
	# crawl_map: scrapy 爬虫映射表
    if not crawl_map:
        raise CrawlError()
    executor = Pool(processes=max_processes)
    for domain, spider in crawl_map.items():
        executor.apply_async(_crawl_main_program, (spider, settings))
    executor.close()
    executor.join()
    
   
def core_website_crawl():
    _crawl_running(crawl_map=core_spider_domain_map, 		   settings=core_website_crawl_settings)
    
    
if __name__ == '__main__':
    core_website_crawl()

想找到一个比较好用的方法

1952 次点击
所在节点    Python
4 条回复
QuinceyWu
2021-01-11 19:36:13 +08:00
github 上有个分布式爬虫管理叫 Crawlab,我现在就在用,能满足你所有爬虫需求
tuoov
2021-01-12 10:25:06 +08:00
subprocess.Popen(['python','runSpider.py'])
process.start()放到 runSpider 里,命令行传参决定启动的爬虫
也许能解决你的问题
Luzaiv7
2021-01-12 20:50:41 +08:00
@QuinceyWu 感觉这个挺适合我的,谢谢
Luzaiv7
2021-01-12 20:50:49 +08:00
@tuoov 已经解决了,谢谢

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/743876

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX