V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  0x636a  ›  全部回复第 1 页 / 共 1 页
回复总数  4
2025 年 10 月 14 日
回复了 jqknono 创建的主题 程序员 大模型召回率为何重要
深有同感。
推理模型的遵循能力也是强于非推理模型的,现在我的生产场景中如果一个 prompt 中有复杂指令的我基本都让推理模型去做了,非推理模型总是会出现遗漏的情况。
2025 年 7 月 18 日
回复了 jackal 创建的主题 随想 目前的 AI,既不聪明,也不愚笨,它只是工具
目前在特定生产场景下有同感,本身用 prompt 精准描述自己的需求就很难,LLM 还有可能无法完全遵守同一个 prompt 中的多条指令。
前一条让 LLM 无法像神一般想我所想。
后一条让基于 LLM 的工程必须不断的通过多 agent 反思迭代优化结果。
这两步还是需要人工投入大量的精力去适配 LLM 的输入和输出。

再来一句断言:
后一个缺点可以通过不断优化 LLM 通过一步步增量去减少人工投入量,前一条需要 LLM 完全超越人类,帮人类提前想好自己想要的做的,帮人类拟定 prompt ,不过这个时候也就没人类什么事了。
@moxiaowei 如果说是同样的代码的话,你试试其他随机数,每个机器上相同随机数表现应该不同的。
1.看看测试集是哪几张图不对,是不是异常图。
2.试试正则化手段 dropout ,l1 l2 损失,预先训练权重
不过为啥非要追求 100%呢
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2637 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 16ms · UTC 11:25 · PVG 19:25 · LAX 03:25 · JFK 06:25
♥ Do have faith in what you're doing.