$V2EX
Solana
Give SOL to Copy Address
使用 SOL 向 Scarb 打赏,数额会 100% 进入 Scarb 的钱包。
 Scarb 最近的时间轴更新
Scarb

Scarb

V2EX 第 241965 号会员,加入于 2017-07-20 09:38:26 +08:00
今日活跃度排名 8953
Scarb 最近回复了
21 小时 0 分钟前
回复了 simple2025 创建的主题 生活 残念,我的蚊帐还要买吗?
把空调温度调高一点,然后叶片往下,风开最大,让热空气先往下走,让空气流动起来。 或者用循环扇
gemini3 告诉我的
yu7 max 准新车 30w 左右就能买了,亏麻了
ampoZmVuMDBAZ21haWwuY29t
11 天前
回复了 edg 创建的主题 程序员 Java 端怎么弄大模型的长期记忆
记忆这块之前研究过。
有很多开源的长期记忆,star 最多的 mem0 ,其他还有 memobase 、memu 、memori 等等。
还可以用云服务 AWS AgentCore Memory 。
没特殊需求直接用 mem0 即可。
原理都差不多,有些会在记忆分类上做优化( User Profile 、Events 、Activity 等等),有些会优化 context 来减少消耗的 token 数量

* 插入
1. 大模型抽取对话中的关键内容
2. 从向量数据库查询已有记忆中相关的记忆
3. 用大模型判断要进行的记忆操作(增删改或者无动作)
4. 执行记忆操作到向量数据库
* 查询
* 直接向量查询,按相似度取前 N 个结果
* 使用
* 每次对话都调用插入,prompt 发到大模型之前查询记忆,把查出来的记忆拼到 prompt 里面
23 天前
回复了 pmpmp 创建的主题 程序员 你真的了解上下文工程么?
写了很多,但是不知道我的理解对不对,实际只有一个功能:自动化上下文压缩(包括总结和 LRU )。其他的 LangChain 也都能做到。
但是自动化上下文压缩感觉是一个伪需求,各个 Agent 使用场景大不相同,每个都应该有自定义的压缩方式。自动化压缩很容易把 Agent 需要的内容丢掉。
glarity 免费的,字幕总结,但是 b 站总结不太能用,现在也不维护了。收费的 monica 或许可以,还支持没字幕的视频总结。
27 天前
回复了 DeepSIeep 创建的主题 问与答 如果你突然得到 50w,你会买什么
LZ 是哪来的 50W ?
我的话就全还贷款
27 天前
回复了 labubu 创建的主题 问与答 大家如何看待 polymarket 这类事件预测网站?
目前是有一定的套利空间的。比如扫尾盘之类
本身样本就太小了
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2474 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 20ms · UTC 11:00 · PVG 19:00 · LAX 03:00 · JFK 06:00
♥ Do have faith in what you're doing.