几亿条的 csv 格式数据怎么快速导入 elasticsearch?

2017-03-24 01:04:01 +08:00
 lovepim
之前在 V2EX 上问了一个关于 elasticsearch 的问题,得到了大家的热情帮助,真是很感动!

最近又遇到一个问题,就是有几亿条的 csv 格式数据(分成了几十个 csv 文件,每个文件有几个字段,用逗号隔开的),想快速的把这些数据导入到 elasticsearch 。之前用的是 logstash ,但是感觉太慢了,每秒也就几百个,估计跟机器性能有关。

针对这种的问题,请问大家有没有更快的导入办法?具体怎么操作呢?
6315 次点击
所在节点    问与答
4 条回复
klxq15
2017-03-24 06:52:02 +08:00
用 python 写个 bulk insert
findex
2017-03-24 08:18:07 +08:00
给你看看一个好工具 github.com xros jsonpyes 你可能需要把 csv 手动转换成 json 格式,方可分块多线程导入。
lovepim
2017-03-24 16:08:01 +08:00
@findex 我试了一下,这种转换没有找到好的工具。。。不知道你有推荐的吗?
findex
2017-03-24 21:38:51 +08:00
@lovepim 这就需要你自己写了。你可以写个动态的脚本转换器,然后导入进去。根据自己的需求

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/349901

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX