| ollama 新手,求问哥哥们 2 个问题,找了好多资料还是没弄明白 ZimaBlueee • 2025 年 3 月 11 日 • 最后回复来自 hefish | 19 |
| 请问 ollama 等 AI 的第三方客户端,除了 ChatBox 和 CherryStudio,还有更好的选择吗? BearCookie • 2025 年 6 月 4 日 • 最后回复来自 aero99 | 11 |
| 100 多号人的企业,想自己部署 deepseek,硬件要哪些? libasten • 2025 年 3 月 11 日 • 最后回复来自 tamshy | 5 |
| 大佬们,本地使用 ollama 部署的 DeepSeek-R1-32B 在 anythingllm 中发送图片,它说它没收到,应该怎么做?才能让他帮我识别图片?实现官网那种效果 cander0815 • 2025 年 3 月 11 日 • 最后回复来自 coefuqin | 4 |
| 本地部署的小模型(小于 16G 显存)适合轻任务,哪一个模型比较好用? Kinnikuman • 2025 年 3 月 8 日 • 最后回复来自 tool2dx | 13 |
| 帮忙看看这个 DIY 装机配置大模型入门怎样 song135711 • 2025 年 3 月 14 日 • 最后回复来自 coefuqin | 19 |
| 30min 搭建本地运行的 General AI agent, 多模态,自扩展,还支持语音! stevenlu137 • 2025 年 3 月 7 日 • 最后回复来自 stevenlu137 | 1 |
| 为 Ollama 添加 APIKEY 鉴权的最简单的方式,防止 Ollama 直接暴露在公网被滥用 mili100 • 2025 年 3 月 12 日 • 最后回复来自 musi | 6 |
| q4 量化的大模型能比原版全精度的差多少? jhytxy • 2025 年 3 月 6 日 • 最后回复来自 mili100 | 2 |
| Intel GPU 的 llama-bench 测试结果 HojiOShi • 2025 年 3 月 5 日 |
| 求 DeepSeekR1 性价比硬件推荐 v2er4241 • 2025 年 3 月 7 日 • 最后回复来自 coala | 59 |
| 咨询 GPU 服务器方案 MimicOctopus • 2025 年 3 月 5 日 • 最后回复来自 tool2dx | 11 |
| 大模型私有化是怎么集群部署的? mingtdlb • 2025 年 3 月 4 日 • 最后回复来自 volvo007 | 6 |
| ollama+docker 部署的 dify+ Linux 放在外网,如何设置才安全? icemanpro • 2025 年 3 月 3 日 • 最后回复来自 mmdsun | 9 |
| 8 卡 H100 部署 DeepSeekR1 求助 zhyim • 2025 年 3 月 4 日 • 最后回复来自 weiming | 15 |
| 公司一个台式机想作为服务器部署本地大模型,怎么在局域网使用呢 xinhaiw • 2025 年 3 月 11 日 • 最后回复来自 cander0815 | 21 |
| Thinkstation P8 搭配 4090 48G 测试 Deepseek-r1 devlnt • 2025 年 2 月 28 日 |
| 8 路 L40 部署 R1-671B 上限是多少呢 jinja27 • 2025 年 2 月 24 日 • 最后回复来自 jingzf0214 | 10 |
| LLM local 模型入门和使用 iv8d • 2025 年 9 月 7 日 • 最后回复来自 miaoxiaomayi | 11 |