我们大概 40w 条数据, 500M 的样子.
每一条数据都是实时更新的.
我每分钟全量写入 redis 一次, 然后发通知给其他业务组, 他们收到通知就全量读一次。
这种方式合理么? 有什么改进方案推荐?
使用 redis 主要还是希望双方节藕
1
kaikai5601 2021-12-23 23:28:37 +08:00 via iPhone
mq
|
2
liprais 2021-12-23 23:29:55 +08:00
用 kafka 实时处理不就完了
|
3
ch2 2021-12-23 23:38:44 +08:00
你买过云计算的 redis ,就知道他们会限制内存吞吐量的
|
4
mineralsalt 2021-12-23 23:56:46 +08:00
典型的消息队列应用场景, 这种用 redis 是不明智的, 也不优雅
|
5
pi1ot 2021-12-24 00:16:11 +08:00
scp ,rsync
|
6
Jooooooooo 2021-12-24 00:27:57 +08:00
为啥不直接发 kafka, 这还过一道 redis 有点多此一举.
|