| 单卡 2080ti 22gb 装机其他怎么配啊 NoahBishop • 2025 年 4 月 3 日 • 最后回复来自 NoahBishop | 8 |
| 本地跑 AI,该买什么设备,不想折腾又想省点钱, mac m4 怎样,有哪些坑需要注意 MHPSY • 2025 年 4 月 2 日 • 最后回复来自 tomczhen | 1 |
| 本地 AI 工作站装机 fcten • 2025 年 4 月 2 日 • 最后回复来自 coefuqin | 17 |
| mcp 支持力度探讨 nl101531 • 2025 年 3 月 31 日 • 最后回复来自 nl101531 | 4 |
| 100+全语种翻译 , 海量翻译数据,并且有速度要求。 有什么经济实惠的本地 LLM 方案么? zzNaLOGIC • 2025 年 3 月 29 日 • 最后回复来自 paopjian | 11 |
| 请教模型部署和管理的问题 MimicOctopus • 2025 年 3 月 29 日 • 最后回复来自 Legman | 4 |
| ubuntu + 双 N 卡 本地部署 DS-R1,性能优化请教 crac • 2025 年 4 月 1 日 • 最后回复来自 crac | 6 |
| 通过 dify 搭建了基于企业内部知识库的问答机器人,但是效果非常差 maoqiucute • 2025 年 6 月 19 日 • 最后回复来自 cshaptx4869 | 15 |
| 本地部署 LLM 并启用网络搜索,有什么现成的方案吗? villivateur • 2025 年 3 月 25 日 • 最后回复来自 coefuqin | 5 |
| Deepseek R1 671B 本地部署方案 mcsddjyd • 2025 年 4 月 27 日 • 最后回复来自 businessch | 15 |
| 无 GPU 服务器部署小模型框架求推荐(需兼容 Kafka 数据流) Daybyedream • 2025 年 3 月 26 日 • 最后回复来自 Daybyedream | 4 |
| 跑 AI 模型,显卡的购买咨询 xiniu • 2025 年 3 月 22 日 • 最后回复来自 Foxii | 23 |
| 半个小时前, ollama 上线了目前单显卡里,最强的中小模型 gemma3 tool3d • 2025 年 5 月 10 日 • 最后回复来自 mizuhashi | 51 |
| 一块 4090,怎么来评估部署大模型后(假设为 DeepSeek-R1-Distill-Qwen-7B)的并发数?、、 bushnerd • 2025 年 3 月 20 日 • 最后回复来自 jroger | 1 |
| 请问此配置如何加速 ollama ds-r1 32b 的速度,好慢 littlemis • 2025 年 3 月 18 日 • 最后回复来自 littlemis | 4 |
| MacMin M4 +国补很香,想买一个内存大一点的跑 pytorch 训练是否可行 python35 • 2025 年 3 月 28 日 • 最后回复来自 hefish | 3 |
| 如何估算一个大模型需要用到什么性能配置的硬件? zcm3579 • 2025 年 3 月 19 日 • 最后回复来自 ChristopherY | 16 |
| A30 显卡-24G 显存,推荐部署什么大模型呢 ZimaBlueee • 2025 年 3 月 28 日 • 最后回复来自 hefish | 8 |
| 开发了个本地实时字幕 (Whisper + LLM api ) 软件,开源 xkeyC • 2025 年 3 月 17 日 • 最后回复来自 xkeyC | 2 |
| ollama 支持的一些模型测试结果 feelapi • 2025 年 3 月 13 日 • 最后回复来自 coefuqin | 6 |