如何解决 300 万数据模糊搜索过慢的问题?

2019-09-03 11:55:21 +08:00
 caneman

目前数据量在 350 万左右,未来可能会涨到 500 万。

需要对标题字段进行模糊搜索(like "%xxxx%"),现在的情况是,每次搜索耗时都在数十秒至分钟级。如何优化成 ms 级?

机器配置 40GSSD 8G 内存,机器上 MYSQL 版本比较低,不支持 FULL TEXT。

现在的想法是把数据导出来上 ES (数据不会经常变动),但是可用的机器配置只有 1 核 1G 20GSSD 的小机器

有什么办法解决吗?

1384 次点击
所在节点    问与答
5 条回复
alexzhu592
2019-09-03 12:09:10 +08:00
上 es,存主键和标题
optional
2019-09-03 12:25:06 +08:00
1c1g 就别搞 ES 了。。。
colincat
2019-09-03 12:54:41 +08:00
寻思啥,能加机器解决的就加机器了,es 也行
sadfQED2
2019-09-03 12:56:32 +08:00
氪金,别无他法
xman99
2019-09-03 17:56:31 +08:00
充钱解决吧

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/597467

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX