1
iv8d 2025 年 5 月 30 日 ollama
|
2
murmur 2025 年 5 月 30 日
200 个产品本地部署你得几套 deepseek 才够用哦
|
3
coefu 2025 年 5 月 30 日
很拉,没效果的。
|
4
dualist 2025 年 5 月 30 日 你要做的是把知识库的每个文件元数据提取出来,然后存到 db 或者非关系数据库,暴露个接口参数让 AI 调用搜索结果,解析结果返回数据就行而不是全部喂给 AI
|
5
zxcvbnm001 2025 年 5 月 30 日 via iPhone 可以选择 rag ,目前看微调还是不如 rag 稳定
|
6
luny 2025 年 5 月 30 日 ollama+dify
|
7
444571840 2025 年 5 月 30 日
本地 AI 不是特别推荐,当玩具玩玩可以,生产力就算了
|
10
YsHaNg 2025 年 5 月 31 日 via iPhone @murmur pcie 槽够多就行 200 也不是很大 多插点卡完事 这里也没什么并发需求 重要的是权重+上下文能塞进显存里 r1 模型卡 128k 属实不适合干这种事 实际召回率更低
|
11
happybabys 2025 年 6 月 1 日 模型没有最强的,只有最适合的,本地部署是正确的选择
|