V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
LiJavaT
V2EX  ›  数据库

Mysql 和 Clickhouse 使用

  •  
  •   LiJavaT · 21 小时 40 分钟前 · 1976 次点击

    现在有个 Java 服务每天要抓取十几万的数据,这个数据量太大了,查询速度也慢。现在方案的是,第一次 Mysql 抓取全量数据同步到 CLickhouse 中,clickhouse 存储历史数据,Mysql 就存储当天抓取的数据然后同步到 clickhouse 中。这样就解决了 Mysql 中表的数据量过大的问题。 想问一下大佬们,我这解决方案有啥问题。期间也想过用 monodb 存储,但是 monodb 不是太好用就放弃了

    25 条回复    2024-11-26 17:05:15 +08:00
    zsj1029
        1
    zsj1029  
       21 小时 36 分钟前
    有点感觉没必要,你担心的 mysql 数据量大,应该是表大,每天创建一个新表,可以解决你说的问题
    分库分表也是为了解决查询慢,其实索引做好,几百万数据应该也不慢的
    vacuitym
        2
    vacuitym  
       21 小时 34 分钟前
    那为啥不全存在 ck
    Ico945
        3
    Ico945  
       21 小时 34 分钟前
    没啥问题吧,还得有个定时任务来清理 mysql 的数据?
    LiJavaT
        4
    LiJavaT  
    OP
       21 小时 33 分钟前
    @vacuitym 因为实时更新当天数据,ck 处理更新不太好吧
    LiJavaT
        5
    LiJavaT  
    OP
       21 小时 32 分钟前
    @Ico945 对对 还得在跑个定时任务清理一下
    vacuitym
        6
    vacuitym  
       21 小时 30 分钟前
    @LiJavaT 看你频率,如果频率不高触发下合并就行
    LiJavaT
        7
    LiJavaT  
    OP
       21 小时 30 分钟前
    @zsj1029 主要是每天创建一个新表,后面做一下数据分析还有查询比较麻烦
    jfds
        8
    jfds  
       21 小时 29 分钟前
    查询复杂的话这个方案没啥问题。如果查询场景简单,这个数据量只用 mysql 也行,建好索引和分表用个几年问题不大。
    bthulu
        9
    bthulu  
       21 小时 28 分钟前
    一天十几万也大吗? 我这厂里设备上报的实时数据, 每秒中几百个设备上报一次, 一天近一千万条数据, 也没见 mysql 不能用啊
    LiJavaT
        10
    LiJavaT  
    OP
       21 小时 26 分钟前
    @bthulu 数据不需要经常查询吗,这样查询挺慢的吧
    000sitereg
        11
    000sitereg  
       21 小时 24 分钟前 via Android
    cdc 抓取增量数据到 ck ,历史数据用 java 等方案插入 ck
    wwwyt
        12
    wwwyt  
       21 小时 19 分钟前
    每天十几万数据也不多,中间加一层 ES 做索引就可以解决查询慢的问题
    venglide
        13
    venglide  
       21 小时 15 分钟前
    建议 mysql 和 ck 都不要用了,直接 starrocks 吧,mysql 协议,实时能力不错,分析效率和 ck 相近,关键是运维比 ck 方便太多。
    li746224
        14
    li746224  
       21 小时 3 分钟前
    问题不大,我们也是这样处理的,每天几十万数据先进 mysql 表,然后 cdc 到 clickhouse 。最后在 clickhouse 做其他汇总处理
    realpg
        15
    realpg  
       21 小时 1 分钟前
    @zsj1029 #1
    索引做好 上亿数据查询也不慢的
    singkingcho
        16
    singkingcho  
       20 小时 54 分钟前
    如果不怎么更新的话,可以用 doris ,然后做按天的分区。
    bthulu
        17
    bthulu  
       20 小时 1 分钟前
    @LiJavaT 那是, 绝大部分情况下都不会查的
    Frankcox
        18
    Frankcox  
       18 小时 53 分钟前
    每天更新的数据是一次新增还是会有大量更新?只是每天新增十几万数据,感觉可以直接都放在 clickhouse 。我们现在部分需要分析的重要日志也是存 clickhouse ,每天几百万,写入没什么问题。
    z1829909
        19
    z1829909  
       18 小时 26 分钟前 via Android
    直接每天数据都往 ck 存,查询也是走 ck 。或者只用 mysql ,做好分表就行。
    你说的要更新 ck 是指数据爬到新的需要更新吗?可以加个版本号,ck 不擅长做数据更新删除,想更新的时候用不同的版本号新增一次,查询条件带上版本号。不用担心数据量太大,ck 就是干这个的,按时间做个分区几百亿都没事。
    codingmiao
        20
    codingmiao  
       18 小时 19 分钟前
    话说为什么你们简称 ck 不是 ch
    allstarvrgo
        21
    allstarvrgo  
       18 小时 18 分钟前
    [这个数据量太大了,查询速度也慢] 考虑这个问题 ,如果查询条件是某天的数据,可以使用 mysql 的分区表,按天分区。
    如果查询条件可能是历史的所有数据,则需要根据查询条件设置好 ck 主键,直接使用 ck 查询。
    sxt10240000
        22
    sxt10240000  
       17 小时 9 分钟前
    @LiJavaT mysql 一亿数据量的普通查询时间在毫秒级,当然你没搞索引当我没说
    maichael
        23
    maichael  
       16 小时 56 分钟前   ❤️ 5
    @codingmiao 关于这个,CH 官方文档甚至有说明: https://clickhouse.com/docs/en/faq/general/dbms-naming
    Meld
        24
    Meld  
       16 小时 30 分钟前
    补上你的查询需求
    8355
        25
    8355  
       15 小时 30 分钟前
    我们现在单表 117 亿的 clickhouse 做报表统计 没啥问题啊。。。你这点量 mysql 都跑的动吧。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   3079 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 30ms · UTC 00:35 · PVG 08:35 · LAX 16:35 · JFK 19:35
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.