V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
2828kakafa
V2EX  ›  程序员

我实际体验了下 glm4.7,比 Claude Sonnet 4.5 要差 10%的样子

  •  
  •   2828kakafa · 2 天前 · 1752 次点击
    1.前端水平还行,一次 ok 率,没有 Claude Sonnet 4.5 发挥稳定。
    2.有时候报错了,得自己修改多次,没有 gpt5 排错精准,但做出来的预期效果差不多有 95%符合。
    3.后端水平还没测,但估计大差不差
    4.唯一优势是便宜,但不确定后期会不会降智。
    13 条回复    2025-12-26 12:48:02 +08:00
    keakon
        1
    keakon  
       2 天前
    只做后端,GLM 4.6 感觉能达到 Sonnet 4.5 的 80%,但是 4.7 感觉和 Sonnet 4.5 差不多,有时候甚至分析更全面,但是明显弱于 Opus 4.5 。
    skyworker
        2
    skyworker  
       2 天前
    glm4.7 私有化部署的成本是多少?
    sagnitude
        3
    sagnitude  
       2 天前
    @skyworker 1T 显存,跑满上下文 2.5T
    2828kakafa
        4
    2828kakafa  
    OP
       2 天前
    @skyworker 没有部署过
    2828kakafa
        5
    2828kakafa  
    OP
       2 天前
    @keakon 我用 glm4.6 的前端很差,如果 glm4.7 不降智吗,买一年性价比太高了
    lscho
        6
    lscho  
       2 天前 via Android
    问题是买了会降智,4.6 刚开始也挺好用。。。还不如用 trae 和腾讯那个国内版内置免费的 4.7 用用算了
    laodao1990
        7
    laodao1990  
       2 天前
    试下 Opus 对比 Sonnet 提升也挺明显
    MIUIOS
        8
    MIUIOS  
       1 天前
    买个 codingplan 就老实了 调 api 花 token 是不会降智和卡壳的, 调 codingplan 的就会,他们连接口都是不一样的。
    AlexHsu
        9
    AlexHsu  
       1 天前
    我觉得没有 10%这一说吧 很多任务就是能与不能之间 国产这些垃圾模型很多时候就是不能 甚至你交给他他都做不到
    czl777
        10
    czl777  
       1 天前
    说的这么精准 还 10% 搞的很专业一样,请问你这个 10%是怎么来的吗,搞 AI 专家测试都不敢这么说具体量化数据,给你说的这么随口一来,搞的测试过大量数据一样的,穷货买都买不起 cc 吧
    2828kakafa
        11
    2828kakafa  
    OP
       1 天前
    @lscho trae 之前买过一个月会员,没用几天,会员都不用了,跑路了
    2828kakafa
        12
    2828kakafa  
    OP
       1 天前
    @laodao1990 用过了,提升很大
    2828kakafa
        13
    2828kakafa  
    OP
       1 天前
    @AlexHsu 10%就是随口一说,如果不降智,glm4.7 还是一个很好的模型
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   1450 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 25ms · UTC 16:37 · PVG 00:37 · LAX 08:37 · JFK 11:37
    ♥ Do have faith in what you're doing.