1
xstress 1 天前
codex 、cc 这类的模型聪明啊,本地部署的参数不够多啊
|
2
codehz 1 天前
本地模型上下文你能开多少呢,64k ? agent 起码 128k 起跳才有价值
|
3
ahu 1 天前
qwen3-coder:480b-cloud 😄
|
4
iorilu 1 天前
你用 ollama 什么模型呢, 本地能跑得起得吗, 别说你有 512G 内存能跑 deepseek 满血版
|
6
sampeng 1 天前
你本地 ollama+zed 。能 200k 上下文跑一整天再来说比 agent 性价比高的话。顶配 mac 不在讨论范围内
|
7
YanSeven 1 天前
至少得说说场景,如果只是 zed 补全和简单问答这种场景,那确实。
|
8
Alias4ck 1 天前
没吃过细糠👀
|
9
musi 1 天前
你买这个设备的价格和电费够我用顶流模型用到退休了吧
|
10
wupeaking 1 天前
zed+Google 的 gemini 3pro 用起来很爽。 虽然 zed 有一堆 bug ,但是它的 agent 加上支持集成目前各种 agent 的功能就能让我一直用下去。
|
11
ASHYWHISPER 1 天前
zed + github copilot 非常好用
|
14
iyaozhen 1 天前
ollama cloud 还是本地,本地模型那响应速度怎么搞。而且 Mac 共用内存,本来就不够,swap 后卡得要死
|
15
tlerbao 1 天前
有点逗乐
|
16
dimlau 1 天前
对我而言 ollama 的作用是让笔记本风扇别闲着……
16b 模型 32k 上下文到顶了已经 ( |