Python 解决, mysql 表数据去重及导入失败方案设计

2018-10-10 10:38:37 +08:00
 Kcelone

前几天遇到个新需求,需要不定时将数据导入 MySQL 数据库。既然是数据导入,就会牵扯到数据重复导入和数据导入失败问题。 1.在解决数据重复导入问题上 方案 1:使用原生 sql,利用临时表进行去重后,数据合入原表。首先临时表重复数据去重:使用 select distinct, 然后在合入原表时再使用 insert into tablename(col1, col2, col3...) select col1, col2, col3... from template_tablename where not exists(select col1, col2, col3 from tablename where tablename.col1 = col1 and tablename.col2=col2 and tablename.col3=col3) 进行二次去重,即可达到去重效果。 方案 2:使用 sqlalchmy 方式去重,查询判断表中不存在当前条数据即插入,多条数据,则需要考虑分批插入。 2.数据导入数据库失败: 方案 1:在导入前进行数据规则校验,并在导入后进行查询,如果存在,则跳过,不存在就记录并尝试重新导入。

2539 次点击
所在节点    Python
10 条回复
Kcelone
2018-10-10 10:43:46 +08:00
如果有好的想法,欢迎留言,大家集思广益,多多提建议,一起搞个技术贴模块的讨论区间出来。鄙人建了个技术群欢迎加入,在这里一起搞事情。902788038
kifile
2018-10-10 11:25:21 +08:00
为什么不考虑唯一索引
CharlieBrown
2018-10-10 13:36:18 +08:00
将列设置为主键,拷贝表(忽略主键重复的)
zjlletian
2018-10-10 14:20:06 +08:00
直接在新表设置联合唯一约束,再往新表导入数据,成功的就是唯一的,后面有重复的就会导入失败。
ccl945
2018-10-10 14:37:57 +08:00
数据量大建议入库后去重,数据量小入库时去重。
Kcelone
2018-10-10 14:55:25 +08:00
@kifile @zjlletian 可以使用唯一索引的,其实在刚开始的时候用的就是唯一索引,后面改成了 insert into select where...,然后又改成了 sqlalchemy 来操作,原因就是原生 sql 不易维护,且版本影响较大,比如关键字 ignore 在 5.7 之后就不再使用。
Kcelone
2018-10-10 14:56:25 +08:00
@CharlieBrown 不如唯一索引。
Kcelone
2018-10-10 15:45:47 +08:00
@ccl945 是因为数据量大易造成数据库假死吗?
fortunezhang
2018-10-10 16:03:48 +08:00
看定时的频率和使用频率
使用频率高:根据判断重复的字段加索引,然后自己写一个 findOrCreate 方法。每一条去执行这个方法。
定时频率高:可以在使用的时候 select x from y order by id(created_at) desc ,这个就可以直接拿到你最近一次存入的值。
可以再详细说一下使用场景,也许会有不同的方案。
Kcelone
2018-10-11 10:11:02 +08:00
@fortunezhang 使用场景就是 a,b,c 三个字段,每个字段都会有重复,但同时出现 a1,b1,c1 的情况只在数据库中存一次,加索引的话,要在 a,b,c 三个字段加联合唯一索引。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/496216

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX