TiDB at 丰巢:尝鲜分布式数据库

2018-11-12 10:49:27 +08:00
 PingCAP

作者:丰巢技术团队

随着丰巢业务系统快速增长,其核心系统的数据量,早就跨越了亿级别,而且每年增量仍然在飞速发展。整个核心系统随着数据量的压力增长,不但系统架构复杂度急剧增长,数据架构更加复杂,传统的单节点数据库,已经日渐不能满足丰巢的需求,当单表数量上亿的时候,Oracle 还能勉强抗住,而 MySQL 到单表千万级别的时候就难以支撑,需要进行分表分库。为此,一款高性能的分布式数据库,日渐成为刚需。

思考

在互联网公司业务量增大之后,并行扩展是最常用、最简单、最实时的手段。例如负载均衡设备拆流量,让海量流量变成每个机器可以承受的少量流量,并且通过集群等方式支撑起来整个业务。于是当数据库扛不住的时候也进行拆分。

但有状态数据和无状态数据不同,当数据进行拆分的时候,会发生数据分区,而整个系统又要高可用状态下进行,于是数据的一致性变成了牺牲品,大量的核对工具在系统之间跑着保证着最终的一致性。在业务上,可能业务同学经常会遇到分过库的同学说,这个需求做不了,那个需求做不了,如果有 sql 经验的业务同学可能会有疑问不就是一条 sql 的事情么,其实这就是分库分表后遗症。

为此,我们需要有个数据库帮我们解决以上问题,它的特性应该是:

选型

根据以上期望进行分析,我们分析了目前市面上存在的 NewSQL 分布式数据库,列表如下:

在综合考虑了开源协议,成熟度,可控度,性能,服务支撑等综合因素之后,我们选择了 TiDB,它主要优势如下:

基于如上的原因,我们选择了 TiDB,作为丰巢的核心系统的分布式数据库,来取代   Oracle 和 MySQL。

评估

1. 性能测试

TiDB 的基准测试,使用的工具是 sysbanch 进行测试,使用了 8 张基础数据为一千万的表,分别测试了 insert,select,oltp 和 delete 脚本得到数据如下,查询的 QPS 达到了惊人的 14 万每秒,而插入也稳定在 1 万 4 每秒。

核心服务器配置:

测试结果:

通过~

2. 功能测试

通过~

接入

因为是核心系统,安全起见,我们采取了多种方案保证验证项目接入的可靠性,保证不影响业务。

1. 项目选择

在寻找第一个接入项目的时候,我们以一下 4 个特征,进行了选择。

最终,我们选择了推送服务。因为推送服务是丰巢用来发送取件通知的核心服务,量非常大,但逻辑简单,而且有备选外部推送方案,所以即便万一出现问题,而不会影响用户。

2. 代码修改

**因为 TiDB 是完全兼容 MySQL 语法的,所以在这个项目的接入过程中,我们对代码的修改是很细微的。**SQL 基本零改动,主要是外围代码,包括:

以上三点,保证了整个系统在不强依赖于数据库,并且能在高并发的情况下通过异步落库保护数据库不被压垮,并且在数据库发生问题的时候,核心业务可以正常进行下去。

效果

1. 查询能力

接入 TiDB 之后,原先按照时间维度来拆分的十几个分表,变成了一张大表。最明显的变化,是在大数据量下,数据查询能力有了显著的提升。

2. 监控能力

TiDB 拥有很完善的监控平台,可以直观的看到容量,以及节点状态。

还能了解每个节点负载和 sql 执行的延时:

当然还能了解所在机器上的位置,CPU 内存等负载情况:

网络状态也能清晰的监控到:

所有这些能让团队能分析出来有问题的 sql,以及数据库本身的问题。

小结

TiDB 的接入过程,整体还是非常顺利的,由于之前做了很多接入的保障工作,当天切换流量到 TiDB 的过程只用了 10 分钟的时间,在此也要感谢 TiDB 对于 MySQL 语法的兼容性的支持,以及 PingCAP 提供的各种有用的工具。到目前为止,系统的稳定运行了一个多月,很好的满足了丰巢的业务需求。

TiDB 的改造完成之后,丰巢推送服务对大部分消息进行了落地和查询,截止目前为止,推送服务最大的日落地量已经达到了 5 千万,而如果现在推送服务还使用的还是 MySQL 的方案,就需要上各种的分库分表方案,很多细致的业务就无法或者难以开展。

此次 TiDB 的改造,只是丰巢对于分布式数据技术探索的一小步,未来丰巢会将更多的分布式技术,引入到更多的业务系统,打造更加极致的产品和服务。

2706 次点击
所在节点    数据库
14 条回复
liwl
2018-11-12 10:57:24 +08:00
好像 pmm-server
z742364692
2018-11-12 11:03:54 +08:00
感觉好厉害的样子
Marmot
2018-11-12 11:12:45 +08:00
还是挺支持 TiDB 的
zjsxwc
2018-11-12 11:30:05 +08:00
前几天还看到有人说坑还蛮多的。。
tuntunxiong
2018-11-12 13:46:36 +08:00
建表太慢了
cuzfinal
2018-11-12 17:02:06 +08:00
看上去很吊的样子。
EXChen
2018-11-12 17:26:39 +08:00
之前还有调研,一直没有时间去实践。
mnhkahn
2018-11-12 17:45:58 +08:00
百度不是有自研的数据库吗,这个比较过吗?
EmdeBoas
2018-11-12 19:18:35 +08:00
@zjsxwc 没错坑很多,泪目
feverzsj
2018-11-12 19:36:47 +08:00
这类数据库的插入更新速度都很慢,再者就算十亿级别的单表对 mysql 而言都应该不是问题
Jaylee
2018-11-12 19:45:54 +08:00
几千万的表都还用 join?
Event
2018-11-12 19:49:46 +08:00
丰巢?第一反应是快递柜
2owe
2018-11-12 19:56:14 +08:00
勘误,第一张表第四列 msyql -> mysql

https://mp.weixin.qq.com/s/xFv90_VB7B9m2o6jvQ13Iw 也是一样的
coolmenu
2018-11-13 08:25:54 +08:00
数据量上亿,oracle 勉强抗住?真是太牵强了吧?

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/506899

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX