1
David1119 2019-01-30 16:02:16 +08:00 3
pandas
读取:pd.read_html 保存:df.to_csv 或者 df.to_sql |
2
xpresslink 2019-01-30 17:19:31 +08:00
以我的实践经验来看最省事的方案是
scrapy + djangoitem + django ORM + Mysql 几乎只要写很少代码(通常几十行代码)就可以把网页数据入库了。 前提是你要会 django 和 scrapy,xpath 方法精熟。 |
3
AicherZX 2019-01-30 17:51:26 +08:00
@xpresslink 为什么不是 scrapy + sqlalchemy + mysql
|
4
xpresslink 2019-01-30 18:01:00 +08:00
@AicherZX 你非要这么说,还可以 peewee 或直接 pymysql 啊
这不是还有一个省事儿的约束条件么 |
6
locoz 2019-01-30 18:18:56 +08:00
2 楼说的这个应该是对 html 上的表格最好的解析方式之一了,用之前爬过的一个表格页测试了一下
http://data.eastmoney.com/stock/tradedetail/2019-01-30.html,虽然这个页面是 js 生成的表格但用来测试的话挺合适的,效果如下: 丢进去 html 字符串让它解析,一行出结果 |
7
xiaozizayang 2019-01-31 08:48:25 +08:00
表格的标签很明显,写一个针对此情况的通用爬虫不难
|
8
yanzixuan 2019-01-31 09:31:47 +08:00
@xpresslink 我写爬虫都是自己撸。requests+parsel+sqlalchemy+mongodb。
mongodb 作为测试环境,随便搞不用担心字段问题。 然后导出 mongodb 的表,自动生成 sqlalchemy 的表。 生产环境用 mysql |
9
xpresslink 2019-01-31 10:14:00 +08:00
@yanzixuan 爬虫其实没有什么一定之规,都是用最省事儿的方案实现了再说,因为人家页面没准过两天就改版了。
更不要说有反爬虫的方案了。 |
10
wwg1994 2019-01-31 11:12:56 +08:00
@locoz 代码是这样吗:pd.read_html('http://data.eastmoney.com/stock/tradedetail/2019-01-30.html'),我怎么得到的是一个空列表
|
11
d5 2019-01-31 14:37:55 +08:00
powerbi
|