V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
zhoudaiyu
V2EX  ›  Kubernetes

大家在生产环境使用 Redis on K8s 的方案是什么?

  •  
  •   zhoudaiyu ·
    PRO
    · 1 天前 · 2648 次点击
    我们的需求是要用 redis-cluster ,而且不能切换 valkey 或者 dragonflydb ,私有云部署。目前调研了 OT-CONTAINER-KIT 的 redis-operator 和 bitnami 的 redis-cluster ,但是两者都有坑,前者 issue 上看扩容有些问题,后者主要是不在 github 上公开维护项目了。大家有什么建议,还有现在使用的方案是啥?
    25 条回复    2026-01-16 15:12:36 +08:00
    GopFei
        1
    GopFei  
       1 天前
    21 年的老项目用的还是 redis-cluster
    cloudzhou
        2
    cloudzhou  
       1 天前
    db ,redis 目前一般还用的是实体部署
    尤其是 redis ,内存数据,部署在 k8s 意义是什么?除了扩容方便外
    craftsmanship
        3
    craftsmanship  
       1 天前 via Android
    @GopFei 21 年就老项目了 真羡慕啊
    qW7bo2FbzbC0
        4
    qW7bo2FbzbC0  
       1 天前
    有啥要迁移 valkey 或者 dragonflydb 的必要吗
    JYii
        5
    JYii  
       1 天前
    @craftsmanship #3 想起之前公司项目看到一份存储过程的注释来自 2008 年,08 年我小学才毕业。
    craftsmanship
        6
    craftsmanship  
       1 天前 via Android
    @JYii 我在工作中翻到过最老的代码是 91 年的 C++头文件 那时我还没出生,,,老前辈写的代码非常规范 赏心悦目
    nodesolar
        7
    nodesolar  
       1 天前
    @JYii 看起来我写 asp 时 你还在读小学
    NoobPhper
        8
    NoobPhper  
       1 天前
    我的经验告诉我,sts 的 东西放到 k8s 上 就是灾难, 别看各种 operator 能做到什么 failsover 巴拉巴拉 u 一大堆, 你现在没遇到是因为,你们体量小,所以不要给自己找麻烦, 放到宿主机上部署。
    coefu
        9
    coefu  
       1 天前
    bitnami 的 redis-cluster ,我在 2021 年的时候,确实遇到过一些问题。bitnami 现在的态度也让人觉得不靠谱了。
    还得是选当前还有 commit 的项目,起码还有人能一起讨论一下。
    qczrzl
        10
    qczrzl  
       1 天前
    kubeblocks
    realpg
        11
    realpg  
    PRO
       1 天前
    这种东西往 K8s 上扔只能说明公司架构是个垃圾
    xzysaber
        12
    xzysaber  
       1 天前
    持久化的项目都是单独部署,没有放到 K8S 管理。
    guanzhangzhang
        13
    guanzhangzhang  
       1 天前
    docker host 网络容器部署,只用容器的 rootfs 和 cgroup 方便特性
    zed1018
        14
    zed1018  
       1 天前
    蹲一个,我们现在 redis 和 rabbitmq 都有单点问题需要解决了
    Maco
        15
    Maco  
       1 天前
    我们生产环境还是用 systemd 管理的宿主机 redis-cluster 。
    kakacoco
        16
    kakacoco  
       1 天前
    实际上这种强状态服务不适合放 k8s 上,我们公司因为历史上有大领导推动上云,导致 redis 也用了 k8s ,现在因为它导致一系列极其恶心的特殊策略,稳定性也没有提高,运维成本高了不少,如果不是老板指定必须这样做不可,最好不要用 k8s ,坑太多了
    R77
        17
    R77  
       1 天前
    redis not on k8s
    Kumo31
        18
    Kumo31  
       1 天前
    kubeblocks + 1
    hancai2
        19
    hancai2  
       1 天前
    跑了几十套 redis 到 k8s 里面没什么问题。 公有云就直接买吧
    stefanaka
        20
    stefanaka  
       1 天前
    不用 k8s 的理由是什么?
    THESDZ
        21
    THESDZ  
       1 天前
    如果没有话语权,可以先上 k8s ,维护好基于 srv 的访问方式
    后期如果脱离,使用 https://kubernetes.io/docs/concepts/services-networking/service/#externalname ,降低迁移难度
    my3157
        22
    my3157  
       1 天前
    一个 sts 加一个 create cluster 的 job 解决, 不介意手动操作的话 sts 起来了以后, 手动 exec 进去 create cluster 也行, 会写 helm 的话 create cluster 也可以用 helm 的 hook 处理
    sampeng
        23
    sampeng  
       1 天前 via iPhone
    尽管放,集群炸的时候是以小时为单位恢复
    sunmoon1983
        24
    sunmoon1983  
       15 小时 51 分钟前
    @nodesolar 顶,我也写过 asp 然后 asp.net 再后来 php 现在在写 go
    nodesolar
        25
    nodesolar  
       14 小时 9 分钟前
    @sunmoon1983 php 没写过,哈哈哈 asp.net 我也写过, 然后写过 nodejs 后面 go 出来再搞 go 了
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   891 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 24ms · UTC 21:22 · PVG 05:22 · LAX 13:22 · JFK 16:22
    ♥ Do have faith in what you're doing.