|  |      1namco1992      2016-10-01 17:36:08 +08:00 zset ,以内容为 key ,时间戳为 score ,效率还是 ok 的。 | 
|      2julyclyde      2016-10-01 18:54:17 +08:00 sorted set 在几十万长度的时候就基本卡死了 请慎重 | 
|  |      5namco1992      2016-10-02 00:01:41 +08:00 @julyclyde 我还真的没经历过这么大的数据量...但是关注的 feed 能到几十万这个量级的话,的确也超出了我现在能预见的范围了,我现在能想到的就是到了一定长度就拆,反正肯定会是分段加载,真有几十万的推送就拆几个 history sets 出来吧 | 
|  |      6cjyang1128      2016-10-02 10:20:35 +08:00 可以采用 HBase 来存储 feed , HBase 天生水平可扩展, key 自动按照字典序排序, lz 可以参考一下,成本比内存数据库小多了 | 
|      7chenxx OP 需要在数据库也加一个打分字段吗? |