有挺多 scarpy 的爬虫,受限于代理数量,没法一次性全部启动。于是想找到一个类似队列,取哪个爬哪个的方法。 目前试过 进程池、scrapy 接口 都不是很理性 进程池的问题:
每个进程消费完第一个爬虫,进程就会关闭
scrapy 接口的问题:
必须按顺序爬,假如其他进程跑完,剩下未跑完的爬虫还是得一个个按顺序跑,浪费时间
以下是进程池的代码
from scrapy.crawler import CrawlerProcess
from multiprocessing import Pool
def _crawl_main_program(spider, settings):
# spider: 爬虫
process = CrawlerProcess(settings)
process.crawl(spider)
process.start()
def _crawl_running(crawl_map: dict, settings: dict, max_processes=5):
# crawl_map: scrapy 爬虫映射表
if not crawl_map:
raise CrawlError()
executor = Pool(processes=max_processes)
for domain, spider in crawl_map.items():
executor.apply_async(_crawl_main_program, (spider, settings))
executor.close()
executor.join()
def core_website_crawl():
_crawl_running(crawl_map=core_spider_domain_map, settings=core_website_crawl_settings)
if __name__ == '__main__':
core_website_crawl()
想找到一个比较好用的方法
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.