python 后台跑个脚本抓某个 API 的结果,然后存入我的数据库,怎么弄比较高级、稳定、装逼

2016-11-16 16:31:01 +08:00
 qweweretrt515

目前是,所有代码写在一个 py 文件里

用 requests 请求 api 的数据

然后用 sqlalchemy 存入我的数据库

运行的时候 python 123.py

虽然可以完成这个需求,但是总觉得档次有些 low ,感觉总有点不靠谱

大家平时是怎么弄的

2524 次点击
所在节点    问与答
19 条回复
xss
2016-11-16 16:38:42 +08:00
让我想起了生活大爆炸里发送一个信号途经各种卫星, 各大洲, 最终结果是开了自己家的一盏灯的梗.....
Phant0m
2016-11-16 16:41:25 +08:00
弄个守护进程 日志报警
tumbzzc
2016-11-16 19:13:00 +08:00
写的“庞大”一点,分好多文件,然后让人看不懂
Ouyangan
2016-11-16 19:14:44 +08:00
用 java
upczww
2016-11-16 19:39:52 +08:00
simple yet efficient 是极好的。
ranleng
2016-11-16 19:56:53 +08:00
每一个函数都写成单独的文件然后各种 import.
popu111
2016-11-16 20:36:08 +08:00
上 Redis/mongodb
GreatMartial
2016-11-16 20:41:06 +08:00
难道没有人和楼主一样,有这种感受吗?
ieiayaobb
2016-11-16 21:21:46 +08:00
上 scrapy
meta
2016-11-16 22:58:07 +08:00
要装逼很容易,把他弄成啥都可以抓,哪儿都可以入,一大堆松耦合。
虽然最后也就干这一件事。
bazingaterry
2016-11-17 00:11:00 +08:00
写个异步多进程。
ys0290
2016-11-17 00:12:46 +08:00
用意念控制它
Senevan
2016-11-17 00:16:58 +08:00
把吃饱灰的树莓派掏出来干这事😂
exalex
2016-11-17 00:28:25 +08:00
为啥楼上都是答非所问,我也想看其他方案,结果全是抖机灵的
windfarer
2016-11-17 00:44:24 +08:00
这简单,你爬虫吐给 logstash ,后面接个 elasticsearch 集群做存储,还可以搜索,高可用!装逼!
Tink
2016-11-17 02:50:51 +08:00
把函数写开
weakiwi
2016-11-17 07:55:39 +08:00
用 django+django-cron ,定时抓取,然后写个 views 展示下。再弄个 supervisor(自己写当然也好)弄个看门狗,输出个 log 。弄成系统服务
ksc010
2016-11-17 10:10:15 +08:00
1. 区分异常类型,一些网络问题原因引起的可以重试的 就重试几次,
因为接口问题引起的(比如接口变更,数据结构变了)就做好结果格式的判断,不符合就抛出异常
2. 记录详细的日志
3. 最后捕捉异常 邮件或短信报警,人工干预优化代码
blabla
2016-11-17 17:36:40 +08:00
先开发个 Python 5.0, 然后再开发个框架. 最后用这两者实现你的抓取功能. 简直不能再炫了.

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/320954

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX