1
namco1992 2016 年 10 月 1 日
zset ,以内容为 key ,时间戳为 score ,效率还是 ok 的。
|
2
julyclyde 2016 年 10 月 1 日
sorted set 在几十万长度的时候就基本卡死了
请慎重 |
5
namco1992 2016 年 10 月 2 日
@julyclyde 我还真的没经历过这么大的数据量...但是关注的 feed 能到几十万这个量级的话,的确也超出了我现在能预见的范围了,我现在能想到的就是到了一定长度就拆,反正肯定会是分段加载,真有几十万的推送就拆几个 history sets 出来吧
|
6
cjyang1128 2016 年 10 月 2 日
可以采用 HBase 来存储 feed , HBase 天生水平可扩展, key 自动按照字典序排序, lz 可以参考一下,成本比内存数据库小多了
|
7
chenxx OP 需要在数据库也加一个打分字段吗?
|