用 scrapy 玩爬虫的这么多 ,遂写了个 scrapy 的管理界面,各位大佬瞧瞧

2017-04-13 10:23:31 +08:00
 modm

https://github.com/DormyMo/SpiderKeeper

主要实现 scrapy 工程的部署,抓取任务状态监控,定时启动爬虫等功能

支持多个 scrapyd 服务 ,方便爬虫集群的管理

后续等功能完善了之后 想支持更多爬虫框架来着

11204 次点击
所在节点    Python
18 条回复
allinwonder
2017-04-13 10:44:43 +08:00
很厉害啊,用什么写的?
modm
2017-04-13 10:50:32 +08:00
xss
2017-04-13 11:31:51 +08:00
看着比 scrapyd 要好用...
simapple
2017-04-13 11:33:47 +08:00
v2 上真是爬虫玩家多 而且高端玩家多
yanzixuan
2017-04-13 11:34:27 +08:00
怒赞。
qile1
2017-04-13 12:12:53 +08:00
windows 系统可以用不?
xrlin
2017-04-13 12:24:28 +08:00
第 111 个赞
modm
2017-04-13 12:28:11 +08:00
@qile1 应该可以,没测试过
modm
2017-04-13 12:28:30 +08:00
@xrlin 👍
im67
2017-04-13 14:31:27 +08:00
ui 可以的
forever139
2017-04-13 15:27:24 +08:00
哈哈,前排支持
bestrenxs
2017-04-13 19:24:31 +08:00
先赞一个!
netChen
2017-04-14 10:01:50 +08:00
楼主强大,做成了我一直想做但却做不成的事,前排支持,然后给星
qsnow6
2017-04-19 10:27:10 +08:00
非常好用!
作者的 Issues 回复的也很快
diveandwatch
2017-12-01 10:44:05 +08:00
请问,上传那个 egg 是 build-egg 生成的 egg,还是 scrapyd-deploy 成功之后自己生成的那个 egg 文件
diveandwatch
2017-12-01 14:30:07 +08:00
爬出来的数据放在 dbs 里面的 sqlite 数据库了吗?可是用可视化工具读不出来数据。
Redips
2018-04-24 14:07:15 +08:00
不错,就是删除任务再新建,会提示达到最大工作量,而且人物也删除不掉
baitongda
2019-02-01 16:48:23 +08:00
我想知道你是用了什么 python 的管理框架吗。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/354532

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX