V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
yavdein
V2EX  ›  Local LLM

买丐版 Mac Mini M4 用来搭本地大模型的,是不是伪需求

  •  
  •   yavdein · 13 天前 · 2309 次点击
    今天自己用 ollama 搭大模型时候发现
    llama 3.2 vision 11b 其实要求颇高
    参照 R 站测评结果

    一张图等于要 1 分多钟才能反馈
    丐版 m4 其实能顺利跑起来的也就是 llama3.2 3b
    回到了两年前文字大模型的时代
    真要搞还真至少得内存拉满
    16 条回复    2024-11-29 13:43:18 +08:00
    icestraw
        1
    icestraw  
       13 天前
    我跑了,内存够,可以跑,速度一样,半分多钟才出结果,GPU 和内存性能低了。Pro 和 Max 会好一些

    不过真要用肯定直接接别家 API 了,搞开发的话,哪怕是 max ,好像修改模型的性能根本不够,一时间还真想不到应用场景...只能说可以学习的时候用下。有谁想得到其他的应用场景吗?
    winglight2016
        2
    winglight2016  
       13 天前
    @icestraw 只能用于开发验证流程,日常使用还是 chatgpt 。我试过 11b 和 90b ,只有后者还能勉强跟 chatgpt 比,前者实际效果很差,几乎没有实用价值。
    Hookery
        3
    Hookery  
       13 天前
    因为内存和显存是共用的,所有 16G 内存可用部分肯定是小于一张显卡 16G 显存的可用部分。单纯推理的话,性价比不如 4060TI 16G
    yavdein
        4
    yavdein  
    OP
       13 天前

    顺便问问 所以咱国产这 qwq 有实用价值么
    mkdirmushroom
        5
    mkdirmushroom  
       13 天前   ❤️ 1
    同样的 qwen2.5 14B q4 量化模型,推理速度 m4 16g 不如 m1 pro 32g 。大模型对内存带宽的要求挺高的,m4 的内存带宽只有 120GB/s 。

    至于应用场景,我之前也很推崇本地大模型,毕竟数据隐私能够得到保证。但是目前开源模型( 32B 以下)的质量明显不如商用模型,真的硬要找个应用场景的话,放在家里当个智能语音助手蛮好。
    zfyStars
        6
    zfyStars  
       13 天前
    没必要吧
    mkdirmushroom
        7
    mkdirmushroom  
       13 天前
    @yavdein https://qwenlm.github.io/blog/qwq-32b-preview/
    看数据很厉害,实际效果就不知道了,我已经不想测试了哈哈,前面好几个开源模型脚踢 o1 ,拳打 Claude3.5 的,实际测试效果真的很一般。
    Donaldo
        8
    Donaldo  
       13 天前
    如果是需要用 Mac 顺便体验一下本地模型,那没问题。专门买来就不值得了,那推理速度能忍?我这 M4 Pro 的推理 14B 的模型和 1080ti 速度没什么区别。。。
    noobjalen
        9
    noobjalen  
       13 天前
    官网下单体验十四天
    ShadowPower
        10
    ShadowPower  
       13 天前
    不行,丐版 Mac Mini M4 的内存还没我的显存大
    不如给台式机加一块 16GB 显存的 4060Ti
    ShadowPower
        11
    ShadowPower  
       13 天前
    @mkdirmushroom 我今天测过这个模型,没有达到我的预期……
    wsbqdyhm
        12
    wsbqdyhm  
       13 天前
    我用 m1 max 64g 勉强可以跑一跑
    rick13
        13
    rick13  
       13 天前

    可以看一下这个视频,看起来真挺能打的
    okakuyang
        14
    okakuyang  
       13 天前
    别人是用集群,苹果有一个可以集群的框架,要用哪个方式跑
    yavdein
        15
    yavdein  
    OP
       12 天前
    @rick13 集群累加制倒是可以的。毕竟苹果内存堪比黄金。这已经有点像马斯克火箭做法了。不行就往上叠发动机。
    yavdein
        16
    yavdein  
    OP
       12 天前

    研究了一圈 还是需要这个 case closed
    现在就缺 5W 资金了。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   858 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 21ms · UTC 21:07 · PVG 05:07 · LAX 13:07 · JFK 16:07
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.