2G 甚至 5G 10G 的 sql 文件怎么消化?

2017-06-02 11:05:50 +08:00
 tianxiacangshen
不一定是传到数据库,而是能打开,能分割也行( SQLDumpSplitter 无效),这么大个文件,用什么打开编辑都是卡死,只能用大文件查看器查看一下,也不能编辑,请问有什么办法编辑比如剪切里面的内容?
5566 次点击
所在节点    PHP
32 条回复
liprais
2017-06-02 11:08:28 +08:00
倒进数据库看....
Fishdrowned
2017-06-02 11:09:04 +08:00
有个笨办法,先导入,再编辑,再导出
operafans
2017-06-02 11:09:40 +08:00
Toad
harker
2017-06-02 11:12:53 +08:00
找个好点的配置的主机,导入到数据库,编辑完在导出,简单有效,主要是方便编辑
baoguok
2017-06-02 11:19:27 +08:00
导入再分批次导出嘛

玩儿技术的,这都不是事儿
buir
2017-06-02 11:34:36 +08:00
卡死是你没 [耐心] 或者内存太小导致的。
wudanyang
2017-06-02 11:39:43 +08:00
先分割呗, 用 `split` 命令
```
split -b 256M file_name -d -a 4 file_prefix
```
jianghu52
2017-06-02 11:49:16 +08:00
我最大打开过 6.8G 的 sql 文件。用的 emeditor。慢是慢了一点。但是没有死。10g 的是没试验过。
gouchaoer
2017-06-02 11:52:19 +08:00
手写一行一行的读
or 用 vim 啥的
tianxiacangshen
2017-06-02 11:53:55 +08:00
@baoguok 这么大没办法导入啊
baoguok
2017-06-02 11:56:12 +08:00
@tianxiacangshen mysql cli 中,试试 source load xx.sql
bookit
2017-06-02 12:01:08 +08:00
UltraEdit

禁止临时文件
禁止显示行号
禁止文件(回车 & 换行符)转换
禁止代码折叠
禁止显示函数列表
设置打开 XML 大文件阈值
禁止语法高亮
禁止列表变更指标( LCI )
2ME
2017-06-02 12:06:49 +08:00
@tianxiacangshen
为什么没办法导入 命令行设置编码 source 导入很快 上午刚导入一个 4g 不到的 sql 文件
mahone3297
2017-06-02 12:08:37 +08:00
@2ME 4g 导入,差不多要多久?
congeec
2017-06-02 12:13:50 +08:00
...............
楼主你听说过 vim 么?
blankme
2017-06-02 12:19:04 +08:00
你能导出还不能导入么...
而且只要内存够,vim 随便看随便编辑
2ME
2017-06-02 12:38:12 +08:00
@mahone3297 没注意 很快 几分钟都不到
tianxiacangshen
2017-06-02 13:03:12 +08:00
@jianghu52 这是个神器啊,13G 打开毫无压力,还能“增删改查”
likuku
2017-06-02 13:06:06 +08:00
转 csv,split 指令直接按行切分成多文件。

grep,sort,awk, 配合起来用,筛出数据都可以。

内存够大(超过文件体积),那么 vim 吧,快速定位行,复制黏贴,都可以。
XiaoFaye
2017-06-02 13:41:27 +08:00
你是没用过 UltraEdit 这个神器吧?

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/365401

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX