请教大家一个架构问题

2019-04-11 18:18:37 +08:00
 herozzm

爬虫每天从各种不同的渠道爬取上百万的数据,存在大量重复无用数据,然后进行筛选给各种网站 app 使用

  1. 爬取来的大量原始数据如何存储,用什么数据库存储?
  2. 筛选怎么做?
  3. 如何最低成本的突破反爬的 ip 限制?
  4. 有经验的老铁们畅所欲言啊

感谢感谢

1213 次点击
所在节点    问与答
12 条回复
herozzm
2019-04-11 18:19:59 +08:00
每个人的回复我定当感谢
v2yehen
2019-04-11 18:23:26 +08:00
1.nosql,文件持久化(我没试过,感觉可行)
3.走代理,先做个 ip 代理池,这个找几篇博文就行
andylsr
2019-04-11 18:31:30 +08:00
筛选:布隆过滤
ip 限制:买代理
jswh
2019-04-11 18:32:16 +08:00
删选怎么做,这搜索的关键词是 数据清洗。
herozzm
2019-04-11 18:43:24 +08:00
@jswh 搜索了很多 也想知道 v 友怎么做的
scalaer
2019-04-11 18:54:21 +08:00
Elasticsearch 满足 1, 2
herozzm
2019-04-11 18:57:39 +08:00
@mggis0or1 es 看来跑不掉了
versionzhang
2019-04-11 19:03:08 +08:00
低成本的 ip 限制可以用 Tor 做匿名代理,不过可能请求返回会慢,爬国外的网站可用性还不错,国内的没怎么试过。数据库原始数据一般存 NoSQL,清洗完再到关系型的做进一步分析使用。NoSQL 也注意加索引,要不写入的效率受影响。我之前的爬虫也就到几十万的量级,往上再走的话还没弄过
herozzm
2019-04-11 19:05:20 +08:00
@versionzhang 我想过多拉几条不同运营商的宽广带 然后有几个辅助脚本配合重拨什么的貌似最有效率
herozzm
2019-04-11 19:07:41 +08:00
移动一年优惠下来 100m 300 元左右
versionzhang
2019-04-11 21:10:33 +08:00
@herozzm 应该可以,国内有提供付费 ip 池的服务商,不过我没用过不知道可用性怎么样,也可以看一下可不可行
Cbdy
2019-04-12 07:31:55 +08:00
MapReduce 做一下清洗

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/554191

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX