V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  wwhc  ›  全部回复第 1 页 / 共 28 页
回复总数  549
1  2  3  4  5  6  7  8  9  10 ... 28  
10 天前
回复了 Zhipuai 创建的主题 程序员 GLM-4.7 上线并开源:更强的编码
支持楼主,请继续加油开源更多的 AI 模型。对了,有 GLM 4.7 air 么?非常可惜的是至今并没有一个能抗衡 gpt-oss-120b 的开源模型在同一尺寸上。
自建吧,运行 gpt-oss-120b 的硬件成本在$2000 以内,如果 gpt-oss-20b 的输出符合需求,硬件成本可降至$1000 内,然后付电费就行了
21 天前
回复了 mdcaqr 创建的主题 Local LLM 5060ti16g 跑 Qwen-32B
试试 gpt-oss-20b ,推理速度很快,16G 的显卡就能装入完整的 128k 上下文长度
27 天前
回复了 kaiveyoung 创建的主题 Arch 为 Arch 推广做了一点微小的事情
用 Gentoo 替代 Arch 更有效,编译是在 linux 环境中更实用的技能
推荐 ThinkPad 简约型小红点 USB 键盘或 ThinkPad 简约型小红点蓝牙键盘
134 天前
回复了 stillsilly 创建的主题 生活 我有小猫啦
猫猫很可爱,替楼主高兴,侍候猫主子要有耐心,祝好运
背唐诗宋词 Qwen3 2507 版很强,openai_gpt-oss-20b-MXFP4 在 Epyc 7532 8 通道 ddr4 系统上的速度是:
prompt eval time = 113.29 ms / 14 tokens ( 8.09 ms per token, 123.58 tokens per second)
eval time = 12243.52 ms / 466 tokens ( 26.27 ms per token, 38.06 tokens per second)
total time = 12356.81 ms / 480 tokens
llama.cpp 运行 gpt-oss-20b-mxfp4 生成回答的速度比 Qwen3 30B 快一倍,一般的电脑就完全可用,但生成回答的质量略不如 Qwen3 30B ,如果内存足够大,gpt-oss-120b-mxfp4 的速度也只比 Qwen3 30B 慢一点,但生成回答的质量要高。但 openai 的这两个模型就像是开源模型的初学者,仍不成熟,实际上不如 Qwen 好用
155 天前
回复了 chanlk 创建的主题 汽车 高速超大车的时候要鸣笛吗?
需要而且必须打方向灯,其它任何动作除非在确定有额外安全风险情况下都属于干扰正常驾驶行为
157 天前
回复了 henji 创建的主题 生活 求助兄弟们一个情侣现实问题
移风易俗,做新时代的现代人,拒绝彩礼嫁妆,不办婚宴,不要红包,自由结婚,你们可以做到的
163 天前
回复了 Sh1xin 创建的主题 程序员 私有化部署 OCR 解决方案请教
Qwen 2.5 vl 有 72B 的,性能很好了,建议楼主可以试试
167 天前
回复了 zzjcool 创建的主题 问与答 刚做完近视手术,我也来聊聊
@sinxccc 我只是想提醒做近视手术的网友对手术要做出足够的研究考虑再作决定,并没有针对是哪种类型的近视手术。这有个关于 ICL 手术的案例,供您参考: https://zhuanlan.zhihu.com/p/137720244
167 天前
回复了 zzjcool 创建的主题 问与答 刚做完近视手术,我也来聊聊
建议看了这类方案而想要做近视手术的网友也看看失败的案例,综合考虑清楚再作决定
https://zhuanlan.zhihu.com/p/84060563
170 天前
回复了 xinbinhan 创建的主题 问与答 谁有稳定的电视源
1  2  3  4  5  6  7  8  9  10 ... 28  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2604 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 34ms · UTC 07:36 · PVG 15:36 · LAX 23:36 · JFK 02:36
♥ Do have faith in what you're doing.