前情提要:
个人感受: 结合工作中遇到的情况,感觉现在的发展模式不太得劲,现在相当于让 AI 去分析自然语言,然后借用各种工具接口,去实现各种功能,Agent 和系统是分开的。
个人想法: 有一个 All-In-One 的想法,个人觉得关键技术应该是“模型记忆”,我们对系统的使用其实是对数据一系列的增删改查,包括现在个人能接触到的 Agent 的模式,也逃不过调用接口、MCP 、Skills 去实现对外部数据的增删改查;另一面,人类设计系统、人类记忆、学习、改变认知、掌握技能、输出知识等一系列过程,也是脑中数据的增删改查。
核心重点: 解决关键技术:“模型记忆”,可能以一个接口分发网关的形式呈现: 主要解决两个难题:1. 无序输入的有序存储 、2. 有序存储的无限归纳
例如: user: 今天 XX 天气怎么样? system:用户是 xxx ,标记数据关联 xxx ; system: 分片:今天、XX 、天气; memory:检索到今天关联数据、XX 关联数据、xxx 关联数据、天气关联数据; system:分析有获取当前日期的需要、分析有调用天气接口的需要; ai: 获取日期、获取天气; ai: 整理内容,输出回复结果; system: 对对话进行切片,记忆:某年某月某日某地某人问过某问题回过某回复;
记忆的模式:ai 归类--相关日期--相关人--相关地点--相关元素--
经过对 AI 的调教,我们可以在他们的记忆里存储 N 个 N 维且相关质检有关联的表单(实际不以常规表单呈现,但是通过记忆的有序抽取可以构成一个表单,就类似于你问 XX 班语文成绩,然后回应就是,张三 90 分,李四 100 分…这样的有序类表结构),这个时候就不需要各种各样的系统了,AI 即是系统、AI 即是万物
flowchart TD
A["拦截模型调用"] --> B["解析请求内容"]
B --> C["在向量数据库查记忆"]
C --> D["携带记忆进行整合"]
D --> E{"需要外部检索?"}
E -- "是" --> F1["构造检索关键词"]
F1 --> F2["执行外部检索(知识库/联网)"]
F2 --> F3["获取检索结果"]
F3 --> F4["整合 请求内容 + 记忆 + 检索结果"]
E -- "否" --> F4
F4 --> G["按用户需要的形式返回响应"]
G --> H["将过程中的内容写入向量数据库记忆"]
看下过年期间有没有空搞个 Demo 出来,有感兴趣一起搞的吗
1
zizon 8 小时 9 分钟前
你猜大模型为什么叫大模型.
参数量就是你的模型记忆的概念. 跟 LLM 交互不一定要用自然语言. 这个是 OpenAI 挖的坑. 你看 Google 是可以读极短关键字的. 模型的推理本质还是搜索召回. 打个比方,你给的关键信息构成的向量指向越接近你要的状态的空间. 你就会评价这个模型更好用. 像 coding,你天花乱坠的各种 markdown 不如给个 example 让它照着抄. |