我们大概 40w 条数据, 500M 的样子.
每一条数据都是实时更新的.
我每分钟全量写入 redis 一次, 然后发通知给其他业务组, 他们收到通知就全量读一次。
这种方式合理么? 有什么改进方案推荐?
使用 redis 主要还是希望双方节藕
1
kaikai5601 2021 年 12 月 23 日 via iPhone
mq
|
2
F281M6Dh8DXpD1g2 2021 年 12 月 23 日
用 kafka 实时处理不就完了
|
3
ch2 2021 年 12 月 23 日
你买过云计算的 redis ,就知道他们会限制内存吞吐量的
|
4
mineralsalt 2021 年 12 月 23 日
典型的消息队列应用场景, 这种用 redis 是不明智的, 也不优雅
|
5
pi1ot 2021 年 12 月 24 日
scp ,rsync
|
6
Jooooooooo 2021 年 12 月 24 日
为啥不直接发 kafka, 这还过一道 redis 有点多此一举.
|