当我们谈论「长期记忆的 LLM Agent」时,真正缺的不是更大的上下文窗口,而是一套会组织、会修正、会演化的记忆结构。 最近读到一篇很有代表性的论文 《HiMem: Hierarchical Long-Term Memory for LLM Long-Horizon Agents》(arXiv:2601.06377),它并没有试图再“发明一个新模块”,而是从认知科学 + 工程实现的角度,系统性地回答了一个被反复忽略的问题: 一个 LLM Agent,应该“怎么记忆”,而不仅是“记多少”? 这篇文章尝试用工程视角拆解 HiMem 的核心设计,并讨论...
在分布式系统里,复制(Replication)和分片(Sharding)几乎是绕不开的两大命题。 单机的 CPU、内存、磁盘、带宽都存在上限,当并发与数据量增长到一定程度,系统就必须扩展到多节点来分担压力。扩展的第一步通常是把读流量拆出去——读写分离。 然而,一旦引入多个副本,就会带来一个非常关键的问题: 写入节点到底是单个?多个?还是没有固定主节点? 不同答案对应三种经典复制架构: 单主复制(Single Leader / Primary-Replica) **多主复制(Multi-Leader / Multi-Master...
论文:SimpleMem: Efficient Lifelong Memory for LLM Agents arXiv: 2601.02553(2026-01-07) 核心一句话:不是把所有聊天记录都塞进上下文,而是把“值得记”的信息变成干净的事实,再按需取用。 1. 背景:为什么 LLM Agent 需要“长期记忆”? 我们现在用 ChatGPT、各种 AI 助手,都会遇到一个痛点: 你和它聊了很多天 过一段时间再问: “上周那个项目叫什么?” “我之前说过我不吃什么?” “她生...
论文:InfiAgent: An Infinite-Horizon Framework for General-Purpose Autonomous Agents(arXiv:2601.03204) 一句话总结:别再把所有历史塞进 prompt,当 Agent 任务变长时,应该把“真实状态”写进文件系统,用文件驱动后续决策。 1. 为什么现在的 Agent 一做长任务就崩? 假设你让一个 AI Agent 做一个“长任务”,比如: 写一篇综述:读 80 篇论文 → 每篇总结 → 最后写总报告 做一个产品调研:找资料 → 做表格...
这章主要围绕两个核心问题展开: 数据是如何被编码的 数据是如何在系统中流动的 这两个问题看似基础,但它们直接决定了系统的可演化性、兼容性以及长期维护成本。本文尝试从工程实践的角度,对这两个问题做一次系统性的梳理。 一、数据是如何编码的? 在分布式系统中,数据几乎总是在内存结构与字节序列之间不断转换。编码方式的选择,决定了数据能否被安全、高效、长期地使用。 1. 基于特定语言的编码方式 许多编程语言都提供了原生的对象序列化能力,例如: Java:java.io.Serializable Pyth...