V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  SeanKK  ›  全部回复第 1 页 / 共 1 页
回复总数  4
@marquina 看 OP 这里的表达 LLM 应该是 for 用户意图理解的,抽取用户兴趣( LLM )->召回对应兴趣下的内容(传统搜推流程),这样的做法在大厂也比较流行... 能充分发挥 LLM 的 reasoning 的能力,同时 given 兴趣点进行传统召回排序成本和效果又比较可控
某些咖啡会升高总胆固醇和低密度脂蛋白胆固醇
2020-09-25 10:49:25 +08:00
回复了 DinoStray 创建的主题 职场话题 新加坡生活, 吃饭 / 租房成本一个月多少
水电网
千兆网,我们办的一年半 1000SGD
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   3157 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 14ms · UTC 13:01 · PVG 21:01 · LAX 05:01 · JFK 08:01
♥ Do have faith in what you're doing.