V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
simple2025
0D
V2EX  ›  Local LLM

deepseek 如何本地部署啊.

  •  
  •   simple2025 · 34 天前 · 638 次点击
    这是一个创建于 34 天前的主题,其中的信息可能已经有所发展或是发生改变。

    我现在下了 ollama,现在卡在下载那个 deepseek-r1:8b 模型上.

    我的机场好像不行.下不动.下了一会儿就断了.

    所以我想要有什么镜像什么的.

    根据 deepseek 搜到的设置 $env:OLLAMA_HOST="mirror.ollama.ai:11434" 也不行.

    你们是怎么下载的呢?

    chspy
        1
    chspy  
       32 天前
    我用的 ppio ,他们接入的模型比较多,然后有问题还可以问技术支持,蛮方便的,你可以用我的码 WF34BQ 去试试
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2589 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 25ms · UTC 11:43 · PVG 19:43 · LAX 03:43 · JFK 06:43
    ♥ Do have faith in what you're doing.