Structurally Aligned Subtask-Level Memory for Software Engineering Agents Kangning Shen, Jingyuan Zhang, Chenxi Sun et al. arXiv:2602.21611 (2026) 🔗 原论文地址:https://arxiv.org/abs/2602.21611 ✨ 一句话总结 这篇论文解决的是: ❌ 过去:AI 只会“按整道题记经验”,容易误用 ...
1. LLM 最简原理:它在做什么? LLM(Large Language Model)本质上做的是一件事: 给定上下文,预测下一个 token 是什么。 它不断生成 token 并拼接成文本,因此看起来能“对话”“写作”“编程”。底层关键架构是 Transformer,依靠 Attention(注意力机制) 在上下文里动态关注关键信息。 Role:最早期的“角色设定” 最经典、最早期的提示方式是 Role Prompt: “你是一个资深产品经理 / 你是一个资深 SRE / 你是一个代码审查专家……” 它的作用是给模型一个行为边界与输出风格,让回答更贴合领域语境,例如: 语气更专业 输出结构更像行业习惯 更倾向于该角色的关注点(风险、边界、指标等) **局限...
在跨境电商搜索里,多语言相关性一直是个又重要又难搞的问题。 英语模型强,不代表它懂泰语; 懂泰语的模型,可能又看不懂东南亚常见的“混合语言 query”; 而现实世界的用户,偏偏就爱这么搜。 最近一篇来自 Lazada 的论文给了一个非常工程化、可落地的答案: 与其训练一个越来越大的“万能模型”,不如让多个各有所长的大模型协同工作。 这篇文章,我想用尽量少的公式、尽量多的直觉,讲清楚他们到底做了什么,以及为什么这套方案值得做搜索/推荐/广告的团队认真看一眼。 一、...
一句话总结:MixLM 让大模型参与搜索排序不再“贵到用不起”,通过把长文本离线压缩成 embedding token,在线只让 Ranker 看 query + 少量向量,就能把吞吐提升 10×~75×,还保持接近全文本排序的效果。 论文原文 1. 背景:为什么“用 LLM 排序”这么难上线? 很多人做过类似尝试: 把 query + 候选 item(比如职位描述、商品详情、文章正文)拼起来 丢给 LLM 问:“这个 item 和 query 相关吗?” ...
你有没有发现: 大模型(LLM)很强,但做 Agent 任务时经常“踩坑反复踩”、今天学会明天忘? 那有没有一种办法,不训练模型参数,只靠“写更好的上下文”,就能让它持续变聪明? \\> 这正是 ACE(Agentic Context Engineering)要解决的问题。 1. 背景:为什么“上下文工程”越来越重要? 现在很多企业/团队用大模型做: 自动化 Age...
最近读了一篇论文:《Monadic Context Engineering》,名字听起来很学术,但核心思想其实非常工程化。 一句话总结: 用一种“标准化流水线”的方式,把 AI Agent 的状态、报错、异步、并发全部统一管理起来,让系统更稳定、更好维护。 这篇文章用最直白的方式,讲清楚它到底在解决什么问题,以及对我们工程师有什么用。 一、现在的 AI Agent 有什么问题? 如果你写过 Agent 系统,大概率踩过这些坑: 1. 状态乱飞 `python state = update(state) state = update_again(st...
今天来系统梳理一下分布式系统中另一个核心命题:分片(Sharding)。 在分布式系统里,复制解决的是可用性和读扩展的问题,而当数据规模或写入吞吐量已经无法由单机承载时,分片几乎是不可回避的选择。 一、为什么需要分片? 我们进行分片最主要的原因是 可伸缩性(Scalability)。 通过分片: 可以把数据分散到多台机器上 把读写负载拆分并行处理 通过 水平扩展(Scale Out) 的方式支撑更大的数据量和更高的吞吐 但分片并不是免费的午餐,它也带来了一系列新的复杂性。 分...
arXiv:2601.11007 AdaMARP: An Adaptive Multi-Agent Interaction Framework for General Immersive Role-Playing AI Interpretation 近两年,LLM 角色扮演(Role-Playing)已经从「好玩」逐渐走向「可用」:AI NPC、互动小说、虚拟陪伴、AI DM…… 但如果你真的做过相关系统,就会发现一个核心问题始终没解决: **模型会说话,但不会...
当我们谈论「长期记忆的 LLM Agent」时,真正缺的不是更大的上下文窗口,而是一套会组织、会修正、会演化的记忆结构。 最近读到一篇很有代表性的论文 《HiMem: Hierarchical Long-Term Memory for LLM Long-Horizon Agents》(arXiv:2601.06377),它并没有试图再“发明一个新模块”,而是从认知科学 + 工程实现的角度,系统性地回答了一个被反复忽略的问题: 一个 LLM Agent,应该“怎么记忆”,而不仅是“记多少”? 这篇文章尝试用工程视角拆解 HiMem 的核心设计,并讨论...