V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
42
相关节点
 显示 37 个更多的相关节点
localllm
V2EX  ›  Local LLM
主题总数 226 RSS
这个节点讨论在本地电脑或者局域网里运行 LLM(大语言模型)的技术细节
1  2  3  4  5  6  7  8  9  10 ... 12  
yavdein 买丐版 Mac Mini M4 用来搭本地大模型的,是不是伪需求
yavdein  •  2025 年 10 月 20 日  •  最后回复来自 winson030
17
levn 英伟达个人 AI 超算 Project Digits 发布 起售价 3000 美元
levn  •  2025 年 2 月 8 日  •  最后回复来自 musi
8
frankyzf 模型有时会很快返回并且结果错误是什么原因?
frankyzf  •  2025 年 1 月 8 日  •  最后回复来自 halov
3
nlzy 三千预算本地 70b 大模型
nlzy  •  2025 年 1 月 6 日  •  最后回复来自 bash99
60
fang2hou DeepSeek V3
fang2hou  •  2025 年 1 月 24 日  •  最后回复来自 houshuu
22
7747139suy 求佬推荐一个本地可部署的音频转文字模型
7747139suy  •  2024 年 12 月 30 日  •  最后回复来自 hellojay
7
leeum API deepseek-code 模型升级到 V3 了吗
leeum  •  2024 年 12 月 29 日  •  最后回复来自 meinjoy
3
noobma 哪个 AI 的文生图/图生图,可以生成大尺度一点的图
noobma  •  2024 年 12 月 29 日  •  最后回复来自 cufezhusy
43
reaCodes gemini-exp-1206 vs gemini-2.0-flash-thinking-exp-1219
reaCodes  •  2024 年 12 月 23 日  •  最后回复来自 mumbler
3
frankyzf 有同时支持 openai 和本地模型的客户端吗?
frankyzf  •  2025 年 1 月 3 日  •  最后回复来自 wangshushu
4
idblife cursor 搭配上自己的 openai apikey 实现的是完整功能吗?
idblife  •  2024 年 12 月 18 日  •  最后回复来自 PlusW
6
skykk1op 基于内部知识库管理,创建问答机器人
skykk1op  •  2024 年 12 月 12 日  •  最后回复来自 Barhe
1
adrianzhang Mac 上 VS Code 使用什么插件可以使用 Ollama 本地模型?
adrianzhang  •  2024 年 12 月 12 日  •  最后回复来自 adrianzhang
7
leoSup 离网 Centos 服务器部署 Qwen-2.5-Coder
leoSup  •  2024 年 12 月 10 日  •  最后回复来自 dcdlove
6
Livid Llama 3.3 70B
Livid  
PRO
 •  2024 年 12 月 11 日  •  最后回复来自 beginor
21
Leon6868 Qwen2.5 72B 是最好的本地代码补全模型
Leon6868  •  2024 年 12 月 8 日  •  最后回复来自 pakro888
15
mdb 关于运行 Lightrag 官方示例报错的问题
mdb  •  2024 年 12 月 5 日  •  最后回复来自 Xs0ul
1
hjc4869 Apple 统一内存适合运行 LLM?理想很丰满,现实很骨感
hjc4869  •  2025 年 4 月 25 日  •  最后回复来自 noogler67
8
1  2  3  4  5  6  7  8  9  10 ... 12  
第 141 到 160 / 共 226 个主题
242 人收藏了这个节点
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2607 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 106ms · UTC 15:11 · PVG 23:11 · LAX 07:11 · JFK 10:11
♥ Do have faith in what you're doing.