2026/2/13 20:11:59
网站建设
项目流程
网站怎么后台登陆,电子商务网站建设 试题,开一个网站需要什么手续,动态交互图表制作本文详解AI Agent的记忆系统#xff0c;分短期记忆与长期记忆两部分。短期记忆介绍3种优化策略(缩减法、卸载法、隔离法)及框架代码实现#xff1b;长期记忆解析信息提取、向量存储、关系推理等技术#xff0c;并提供Mem0/ReMe集成代码。展望记忆即服务、精细化管理、多模态…本文详解AI Agent的记忆系统分短期记忆与长期记忆两部分。短期记忆介绍3种优化策略(缩减法、卸载法、隔离法)及框架代码实现长期记忆解析信息提取、向量存储、关系推理等技术并提供Mem0/ReMe集成代码。展望记忆即服务、精细化管理、多模态三大未来趋势帮助开发者解决AI失忆问题构建更智能的Agent记忆系统。你有没有遇到过这种情况早上跟智能助手说“帮我订明天去上海的机票”下午再问“刚才选的航班时间能改吗”它却一脸茫然“您之前说过这句话吗”这不是AI故意“装傻”——LLM的上下文窗口限制、不断增长的对话成本、跨会话记忆缺失才是背后的“罪魁祸首”。而解决这些问题的关键就在于AI Agent的“记忆系统”。今天我们就来拆解AI的“记忆”是怎么工作的短期记忆如何“省空间”长期记忆如何“越用越聪明”未来它还能怎么进化文末附实战代码手把手教你集成记忆系统一、AI的“记忆”和人类一样吗分两种对人类来说“记忆”是本能——前一秒说的话后一秒可能就忘短期记忆但小时候学的骑车、爱吃的菜却能记一辈子长期记忆。AI的“记忆”也类似但划分更明确短期记忆聊天的“草稿纸”定义单次对话中你和AI一来一回的所有交互比如你问“今天天气如何”AI答“晴25℃”。特点直接参与当前对话像写在草稿纸上的临时笔记但受限于LLM的“上下文窗口”比如GPT-4的8k/32k token限制聊多了就会“写不下”。长期记忆专属你的“记忆库”定义跨多次对话积累的“有用信息”比如你常订早班机、爱吃辣、上周刚问过法律条款。特点像你的私人笔记本能从短期记忆里“提炼”关键信息存起来下次对话时“翻出来”用让AI越来越懂你。举个例子你第一次说“帮我找上海的法餐要安静的”AI记下了“偏好法餐安静”第二次说“上次那家法餐太贵了”AI会从长期记忆里调出“法餐”相关信息结合新问题推荐性价比更高的——这就是长期记忆的作用。二、AI的“记忆系统”如何工作记住这4步不管是短期还是长期记忆AI的“记忆系统”都有一套通用逻辑就像你整理房间先翻旧物加载记忆挑有用的摆桌上注入上下文用完再收进柜子更新记忆脏东西及时扔清理冗余。具体来说推理前加载先“翻旧账”用户提问时先从长期记忆里“搜刮”相关信息比如用户的偏好、历史问题准备“辅助材料”。上下文注入把“旧账”摆上台面把长期记忆里找到的信息和当前问题一起“喂”给LLM让它结合新旧信息生成回答。记忆更新用完的“草稿”收进柜子对话结束后把这次的短期记忆比如用户的新需求、AI的回复“提炼”出有用信息比如“用户最近常出差”存进长期记忆。信息处理给记忆“分类归档”长期记忆不是乱存的——它会用向量化模型把文字转成数字向量、图数据库存实体关系等技术给信息打标签、建索引方便下次快速查找。三、短期记忆不够用3招“省空间” 代码实战短期记忆最大的痛点是“容量有限”——聊10轮可能就超token限制了怎么办工程师们想出了3个“偷空间”的妙招附框架代码实现缩减法挑重点删废话比如你说“帮我写一篇关于AI的文章要包括技术原理、应用场景、未来趋势”AI可能只保留“主题AI文章要求技术原理、应用场景、未来趋势”去掉重复的描述。卸载法把“大文件”存外置硬盘如果对话里有大段内容比如一篇5000字的报告AI会把完整内容存到外部数据库只在对话里留个“文件链接”比如“[报告链接]”。需要时用链接调取既省空间又不丢信息。隔离法拆分成“小任务”把复杂任务拆成多个小任务每个子任务单独对话。比如你要策划一场活动主AI负责分配任务“子AI1查场地子AI2定嘉宾”子AI完成任务后只返回结果主AI不用管中间过程——相当于每个子任务只用“一张小草稿纸”。不同框架的“省空间”代码实现▶ Google ADK每3轮自动压缩from google.adk.apps.app import App, EventsCompactionConfig app App( namemy-agent, root_agentroot_agent, events_compaction_configEventsCompactionConfig( compaction_interval3, 每3次新调用触发压缩 overlap_size1 # 包含前一个窗口的最后1条消息防断档 ),)▶ LangChain超4000token自动摘要from langchain.agents import create_agent from langchain.agents.middleware import SummarizationMiddleware agent create_agent( modelgpt-4o, tools[...], middleware[ SummarizationMiddleware( modelgpt-4o-mini, 用轻量模型做摘要 max_tokens_before_summary4000, # 4000token触发摘要 messages_to_keep20, # 摘要后保留最后20条消息 ), ],)▶ AgentScope6种渐进式压缩策略更智能// 初始化智能上下文记忆支持6种压缩策略 AutoContextMemory memory new AutoContextMemory( AutoContextConfig.builder() .msgThreshold(100) // 消息数超100触发压缩 .maxToken(128 * 1024) // 最大token限制128k .tokenRatio(0.75) // 保留75%核心信息 .build(), model // 传入LLM模型 ); // 集成到Agent ReActAgent agent ReActAgent.builder() .name(Assistant) .model(model) .memory(memory) // 短期记忆用AutoContextMemory .build();优势能追溯所有压缩记录按消息类型用户输入/工具结果自动选策略比ADK/LangChain更精细。四、长期记忆如何“越用越聪明”关键技术代码集成长期记忆的核心是“记对人、记对事”背后靠信息提取→向量存储→关系推理→重排序四步附Mem0/ReMe集成代码核心技术栈LLM从短期记忆提取“用户偏好”“历史问题”等有效信息如“用户下周某天去北京出差”Embedder把信息转成向量如“北京出差”对应一组数字存进VectorStore向量数据库GraphStore存实体关系如“用户-喜欢-猫-名字-小白”Reranker对检索结果重排序只留最相关的3条。框架集成2行代码接入长期记忆▶ 集成Mem0开源记忆框架社区最火// 1. 初始化Mem0长期记忆 Mem0LongTermMemory mem0Memory new Mem0LongTermMemory( Mem0Config.builder() .apiKey(your-mem0-api-key) // 从Mem0官网申请 .build() ); // 2. 绑定到Agent短期记忆长期记忆双开 ReActAgent agent ReActAgent.builder() .name(Assistant) .model(model) .memory(memory) // 短期记忆如AutoContextMemory .longTermMemory(mem0Memory) // 长期记忆Mem0 .build();▶ 集成ReMeAgentScope官方长期记忆深度适配// 1. 初始化ReMe需先启动ReMe服务http://localhost:8002 ReMeLongTermMemory remeMemory ReMeLongTermMemory.builder() .userId(user123) // 用户ID隔离不同用户记忆 .apiBaseUrl(http://localhost:8002) .build(); // 2. 绑定到Agent支持“只记/只读/读写”模式 ReActAgent agent ReActAgent.builder() .name(Assistant) .model(model) .memory(memory) .longTermMemory(remeMemory) .longTermMemoryMode(LongTermMemoryMode.BOTH) // 读写模式 .build();五、未来AI的“记忆”会更像人吗3个趋势现在的AI记忆系统还在“小学生”阶段但未来的进化方向已经很清晰记忆即服务MaaS像用水用电一样用记忆以后可能不需要自己搭记忆系统直接用云服务商提供的“记忆API”——就像现在用阿里云存数据一样开发者调用接口就能让AI记住用户信息。精细化记忆管理像大脑一样“取舍”借鉴人脑的“记忆巩固”机制重要的信息比如用户的核心偏好反复强化不重要的比如某次闲聊的细节慢慢遗忘还能通过强化学习让AI自己“判断”哪些信息值得记。多模态记忆能“看”能“听”的全能记忆现在的记忆主要是文本但未来AI可能记住你的语音比如你说“这个声音很好听”、图片比如你分享的风景照甚至视频——比如你教AI做菜的视频它能记住步骤下次直接指导你。结语记忆系统AI的“成长必修课”从“记不住话”到“越用越懂你”AI的记忆系统正在从“能用”走向“好用”。它不仅解决了token成本和上下文限制的痛点更重要的是让AI有了“个性”——就像你的朋友记得你的喜好懂你的潜台词。未来随着记忆技术的进化AI可能会成为真正的“数字伙伴”它能记住你从小到大的故事帮你规划人生目标甚至在你需要时递上一杯温度刚好的茶如果你告诉过它你喜欢的温度。如何系统的学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。一直在更新更多的大模型学习和面试资料已经上传带到CSDN的官方了有需要的朋友可以扫描下方二维码免费领取【保证100%免费】01.大模型风口已至月薪30K的AI岗正在批量诞生2025年大模型应用呈现爆发式增长根据工信部最新数据国内大模型相关岗位缺口达47万初级工程师平均薪资28K数据来源BOSS直聘报告70%企业存在能用模型不会调优的痛点真实案例某二本机械专业学员通过4个月系统学习成功拿到某AI医疗公司大模型优化岗offer薪资直接翻3倍02.大模型 AI 学习和面试资料1️⃣ 提示词工程把ChatGPT从玩具变成生产工具2️⃣ RAG系统让大模型精准输出行业知识3️⃣ 智能体开发用AutoGPT打造24小时数字员工熬了三个大夜整理的《AI进化工具包》送你✔️ 大厂内部LLM落地手册含58个真实案例✔️ 提示词设计模板库覆盖12大应用场景✔️ 私藏学习路径图0基础到项目实战仅需90天第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】