使用 apscheduler 和 scrapy 做定时抓取爬虫为什么只抓取一次

2015-11-20 14:41:44 +08:00
 killerv

使用 apscheduler 做定时任务, scrapy 做爬虫,但是爬虫只执行了一次,后面就没有继续抓取, aqi 函数是执行的,下面是代码:

from apscheduler.schedulers.background import BackgroundScheduler
from apscheduler.triggers.cron import CronTrigger
import time
from log.make_log import make_log_file

from scrapy.crawler import CrawlerProcess
from scrapy.utils.project import get_project_settings

from spider.spiders.aqi import AqiSpider

def aqi(crawler, spider):
    try:
        crawler.crawl(spider)
        crawler.start()
    except Exception, e:
        make_log_file(str(e),'scrapy')

if __name__ == '__main__':
    settings = get_project_settings()
    crawler = CrawlerProcess(settings)
    spider = AqiSpider()
    scheduler = BackgroundScheduler()
    scheduler.daemonic=False
    cron = CronTrigger(second='*/30')
    scheduler.add_job(aqi, cron, args=[crawler, spider])
    scheduler.start()
    while True:
        time.sleep(1000)
5265 次点击
所在节点    Python
0 条回复

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/237617

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX