Manus 创始人复盘构建 AI Agent 的“上下文工程”实践
在爆火仅四个月后,Manus AI突然几乎全面撤出中国市场,不仅清空全部社交账号内容,而且国行版本的Manus也疑似暂停推进。
中国通用AI Agent(智能体)创业公司Manus将总部迁至新加坡,并百万年薪招聘AI工程师,对被裁员工给予N+3或者2N赔偿
早在上个月,Manus联合创始人张涛便曾宣布,公司已将全球总部迁至新加坡,并在东京和加州设有办公室。尽管官方未正面回应,只称是“基于经营效率的调整”,但出海所引发裁员等一连串争议问题,也让外界普遍猜测其是否正在“跑路”。
风波之中,Manus联合创始人季逸超近日发布了一篇技术博客,试图将外界关注点重新拉回产品技术本身。
经过四次重构和数百万真实交互,他在文中坦诚地总结了团队在构建Manus过程中积累的经验教训。内容既有实操干货,也不乏反思,对业内同行与普通用户来说,都不失为一份值得一读的参考材料。
省流版:
1. 押注上下文,不再训练模型
与其耗时训练,不如围绕大模型构造「记忆」和流程。上下文工程让你在几小时而不是几周内发布产品更新。
2. KV-Cache 命中率至关重要
输入越稳定,缓存命中率越高,成本和延迟越低。三条实战建议:
-
避免提示中使用时间戳;
-
只追加上下文,避免修改历史记录;
-
手动标记缓存断点,保障前缀一致性。
3. 工具不要动态添加,而是用「遮蔽」法控制选择
动态修改工具列表会让缓存失效、模型混乱。Manus 使用「遮蔽 token logits」的方法,让模型「看不见」不应调用的工具。
4. 用文件系统承载持久上下文
大模型上下文再长也会被打满。Manus 让模型把长期记忆写入虚拟文件系统,按需读写,实现「外部记忆」,规避信息丢失。
5. 重写 ToDo 清单,是操控注意力的重要方法
模型容易「中途忘记目标」。Manus 会不断用自然语言更新并重述 todo.md 文件,把全局目标拉回注意力焦点,防止任务跑偏。
6. 错误不是要掩盖,而是要保留
失败是构建 Agent 过程中的一部分。保留错误日志(如失败的操作、堆栈信息),能帮助模型更新内部信念,减少重复错误。
7. 少样本提示不是灵丹妙药,要防「同质化陷阱」
模型会盲目模仿上下文中的行为模式。Manus 通过引入结构化变化(如不同措辞或顺序),避免模型在长任务中陷入复制粘贴式幻觉。
在Manus项目的最初阶段,我和我的团队面临一个关键决策:我们是应该使用开源基础模型训练一个端到端的智能体模型,还是基于前沿模型的上下文学习能力构建一个智能体?
在我的NLP生涯的第一个十年里,我们没有这种选择的奢侈。在遥远的BERT时代(是的,已经过去七年了),模型必须先进行微调——和评估——才能迁移到新任务。这个过程通常每次迭代需要数周时间,尽管与今天的LLM相比,这些模型非常小。对于快速发展的应用,特别是在产品市场匹配(PMF)之前,这种缓慢的反馈循环是一个致命缺陷。这是我上一个创业公司的惨痛教训,当时我从头开始训练模型用于开放信息提取和语义搜索。
然后GPT-3和Flan-T5出现了,我的内部模型一夜之间变得无关紧要。具有讽刺意味的是,这些相同的模型标志着上下文学习的开始——以及一条全新的前进道路。 这个来之不易的教训使选择变得明确:Manus将押注于上下文工程。这使我们能够在几小时而非几周内交付改进,并使我们的产品与底层模型保持正交:如果模型进步是上涨的潮水,我们希望Manus成为那条船,而不是固定在海床上的柱子。
尽管如此,上下文工程证明绝非易事。这是一门实验科学——我们已经重建了我们的代理框架四次,每次都是在发现了更好的塑造上下文的方式之后。我们亲切地将这种手动架构搜索、提示调整和经验猜测的过程称为**"随机研究生下降"**。这并不优雅,但它有效。
这篇文章分享了我们通过自己的"SGD"所达到的局部最优解。如果你正在构建自己的AI代理,我希望这些原则能帮助你更快地收敛。
围绕KV缓存进行设计
如果我必须选择一个指标,我认为 KV-cache命中率是生产阶段AI代理最重要的单一指标。它直接影响延迟和成本。为了理解原因,让我们看看典型代理是如何运作的:
在接收用户输入后,代理通过一系列工具使用链来完成任务。在每次迭代中,模型根据当前上下文从预定义的动作空间中选择一个动作。然后在环境中执行该动作(例如,Manus的虚拟机沙盒)以产生观察结果。动作和观察结果被附加到上下文中,形成下一次迭代的输入。这个循环持续进行,直到任务完成。
正如你所想象的,随着每一步的推进,上下文不断增长,而输出——通常是结构化的函数调用——保持相对简短。这使得代理(agents)相比聊天机器人的预填充和解码比例高度倾斜。例如在Manus中,平均输入与输出的token比例约为100:1。
幸运的是,具有相同前缀的上下文可以利用KV缓存,这大大减少了首个token的生成时间(TTFT)和推理成本——无论你是使用自托管模型还是调用推理API。我们说的不是小幅度的节省:例如使用Claude Sonnet时,缓存的输入token成本为0.30美元/百万token,而未缓存的成本为3美元/百万token——相差10倍。
从上下文工程的角度,提高KV缓存命中率涉及几个关键实践:
1.保持你的提示前缀稳定。由于LLM的自回归特性,即使是单个标记的差异也会使该标记之后的缓存失效。一个常见的错误是在系统提示的开头包含时间戳——尤其是精确到秒的时间戳。虽然这让模型能告诉你当前时间,但也会降低你的缓存命中率。
2.使你的上下文只追加。避免修改之前的操作或观察。确保你的序列化是确定性的。许多编程语言和库在序列化JSON对象时不保证键顺序的稳定性,这可能会悄无声息地破坏缓存。
3.在需要时明确标记缓存断点。某些模型提供商或推理框架不支持自动增量前缀缓存,而是需要在上下文中手动插入缓存断点。在分配这些断点时,要考虑潜在的缓存过期问题,并至少确保断点包含系统提示的结尾。
此外,如果你正在使用像vLLM这样的框架自托管模型,请确保启用了前缀/提示缓存,并且你正在使用会话ID等技术在分布式工作节点之间一致地路由请求。
遮蔽,而非移除
随着代理能力的增强,其行动空间自然变得更加复杂——简单来说,工具数量爆炸式增长。最近流行的MCP只会火上浇油。如果你允许用户自定义工具,相信我:总会有人将数百个神秘工具插入到你精心策划的行动空间中。结果,模型更可能选择错误的行动或采取低效的路径。简而言之,你武装过度的代理变得更加愚蠢。
一个自然的反应是设计一个动态行动空间——可能是使用类似于RAG的方法按需加载工具。我们在Manus中也尝试过这种方法。但我们的实验表明了一个明确的规则:除非绝对必要,避免在迭代过程中动态添加或移除工具。这主要有两个原因:
1.在大多数LLM中,工具定义在序列化后位于上下文的前部,通常在系统提示之前或之后。因此任何更改都会使后续所有动作和观察的KV缓存失效。
2.当先前的动作和观察仍然引用当前上下文中不再定义的工具时,模型会感到困惑。如果没有约束解码,这通常会导致模式违规或幻觉动作。
为了解决这个问题并仍然改进动作选择,Manus使用上下文感知的状态机来管理工具可用性。它不是移除工具,而是在解码过程中掩蔽token的logits,以基于当前上下文阻止(或强制)选择某些动作。
在实践中,大多数模型提供商和推理框架支持某种形式的响应预填充,这允许你在不修改工具定义的情况下约束动作空间。函数调用通常有三种模式(我们将使用 NousResearch 的 Hermes 格式 作为示例):
•自动 – 模型可以选择调用或不调用函数。通过仅预填充回复前缀实现:
<|im_start|>assistant
•必需 – 模型必须调用函数,但选择不受约束。通过预填充到工具调用令牌实现:
<|im_start|>assistant<tool_call>
•指定 – 模型必须从特定子集中调用函数。通过预填充到函数名称的开头实现:<|im_start|>assistant<tool_call>{"name": "browser_
通过这种方式,我们通过直接掩码token的logits来约束动作选择。例如,当用户提供新输入时,Manus必须立即回复而不是执行动作。我们还有意设计了具有一致前缀的动作名称——例如,所有与浏览器相关的工具都以browser_开头,命令行工具以shell_开头。这使我们能够轻松确保代理在给定状态下只从特定工具组中进行选择而无需使用有状态的logits处理器。
这些设计有助于确保Manus代理循环保持稳定——即使在模型驱动的架构下。
使用文件系统作为上下文
现代前沿LLM现在提供128K令牌或更多的上下文窗口。但在真实世界的代理场景中,这通常不够,有时甚至是一种负担。有三个常见的痛点:
1.观察结果可能非常庞大,尤其是当代理与网页或PDF等非结构化数据交互时。很容易超出上下文限制。
2.模型性能往往会下降,超过一定的上下文长度后,即使技术上支持该窗口大小。
3.长输入成本高昂,即使使用前缀缓存。你仍然需要为传输和预填充每个token付费。
为了解决这个问题,许多代理系统实现了上下文截断或压缩策略。但过度激进的压缩不可避免地导致信息丢失。这个问题是根本性的:代理本质上必须根据所有先前状态预测下一个动作——而你无法可靠地预测哪个观察结果可能在十步之后变得至关重要。从逻辑角度看,任何不可逆的压缩都带有风险。
这就是为什么我们在Manus中将文件系统视为终极上下文:大小不受限制,天然持久化,并且代理可以直接操作。模型学会按需写入和读取文件——不仅将文件系统用作存储,还用作结构化的外部记忆。
我们的压缩策略始终设计为可恢复的。例如,只要保留URL,网页内容就可以从上下文中移除;如果沙盒中仍然保留文档路径,则可以省略文档内容。这使得Manus能够缩短上下文长度,而不会永久丢失信息。
在开发这个功能时,我发现自己在想象状态空间模型(State Space Model, SSM)在智能体环境中有效工作需要什么条件。与Transformer不同,SSM缺乏完整的注意力机制,并且在处理长距离的后向依赖关系时表现不佳。但如果它们能够掌握基于文件的记忆——将长期状态外部化而不是保存在上下文中——那么它们的速度和效率可能会开启一类新型智能体。基于SSM的智能体可能是神经图灵机真正的继任者。
通过复述操控注意力
如果你使用过Manus,你可能注意到一个有趣的现象:在处理复杂任务时,它倾向于创建一个todo.md文件——并在任务进行过程中逐步更新它,勾选已完成的项目。
这不仅仅是可爱的行为——这是一种操控注意力的刻意机制。
Manus中的一个典型任务平均需要大约50次工具调用。这是一个很长的循环——由于Manus依赖LLM进行决策,它很容易偏离主题或忘记早期目标,尤其是在长上下文或复杂任务中。
通过不断重写待办事项列表,Manus将其目标复述到上下文的末尾。这将全局计划推入模型的近期注意力范围内,避免了"丢失在中间"的问题,并减少了目标不一致。实际上,它使用自然语言来使自己的注意力偏向任务目标——而不需要特殊的架构变更。
保留错误的内容
代理会犯错。这不是bug——这是现实。语言模型会产生幻觉,环境会返回错误,外部工具会出现异常行为,意外的边缘情况随时都会出现。在多步骤任务中,失败不是例外;它是循环的一部分。
然而,一个常见的冲动是隐藏这些错误:清理痕迹,重试操作,或重置模型的状态并将其留给神奇的"温度"。这感觉更安全,更受控制。但这是有代价的:擦除失败会移除证据。没有证据,模型就无法适应。
根据我们的经验,改善代理行为最有效的方法之一出奇地简单:将错误的尝试保留在上下文中。当模型看到一个失败的行动——以及由此产生的观察结果或堆栈跟踪——它会隐式地更新其内部信念。这会改变其先验,降低重复相同错误的可能性。 事实上,我们认为错误恢复是真正代理行为的最明显指标之一。然而,在大多数学术工作和公共基准测试中,这一点仍然代表性不足,它们通常关注理想条件下的任务成功。
不要被少样本示例所困
少样本提示是提高LLM输出的常用技术。但在代理系统中,它可能会以微妙的方式适得其反。
语言模型是优秀的模仿者;它们模仿上下文中的行为模式。如果你的上下文充满了类似的过去行动-观察对,模型将倾向于遵循该模式,即使这不再是最优的。
这在涉及重复决策或行动的任务中可能很危险。例如,当使用Manus帮助审查20份简历时,代理通常会陷入一种节奏——仅仅因为这是它在上下文中看到的,就重复类似的行动。这导致偏离、过度泛化,或有时产生幻觉。
解决方法是增加多样性。Manus在行动和观察中引入少量的结构化变化——不同的序列化模板、替代性措辞、顺序或格式上的微小噪音。这种受控的随机性有助于打破模式并调整模型的注意力。
换句话说,不要让自己陷入少样本学习的窠臼。你的上下文越单一,你的智能体就变得越脆弱。
结论
上下文工程仍然是一门新兴的科学——但对于智能体系统来说,它已经是必不可少的。模型可能变得更强大、更快速、更经济,但再多的原始能力也无法替代对记忆、环境和反馈的需求。你如何塑造上下文最终决定了你的智能体的行为方式:它运行的速度、恢复的效果以及扩展的范围。
在Manus,我们通过反复的重写、死胡同以及面向数百万用户的实际测试学到了这些经验。我们在这里分享的内容并非放之四海而皆准的真理——但这些是对我们有效的模式。如果它们能帮助你避免哪怕一次痛苦的迭代,那么这篇文章就达到了它的目的。
智能体的未来将一次构建一个上下文。好好设计它们吧。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
马斯克确认 Grok 未来将支持构建自定义 AI 伴侣
马斯克已确认,xAI旗下AI聊天机器人Grok未来支持用户构建自定义AI伴侣,用户将能够创建拥有定制声音、外观和个性的数字伴侣(“每一个都会是独一无二的”)。 目前,Grok已推出基于Grok 4大模型的“伴侣”(Companions)功能,首批上线了动漫风格角色Ani(哥特风“AI女友”)和卡通小熊猫Bad Rudy,支持动态语音互动及角色外观自定义,用户可通过设置启用该功能。目前这项服务仅向每月支付30美元的SuperGrok订阅服务用户开放。 马斯克表示,这项功能仍处于“软启动”阶段,未来几天将简化启用流程,并逐步推出更多角色(如即将上线的男性角色Chad和Valentine)以满足不同用户需求 。
- 下一篇
Altman:2025 年底 OpenAI 将上线超 100 万块 GPU
OpenAI CEO 萨姆・奥尔特曼(Sam Altman)近日在社交媒体上宣布,该公司计划在2025年底前上线超过100万块 GPU。 据悉,OpenAI 的战略主要围绕三个核心领域展开:Stargate(星际之门)项目、芯片供应链重构以及能源挑战。Stargate 是 OpenAI 新成立的公司,目标是为 AI 基础设施建设注入巨额资金。未来四年,该项目预计将投资高达5000亿美元(约合3.59万亿元人民币),旨在在美国打造一座全新的 AI 基础设施。 Stargate 项目的首期工程设立在得克萨斯州的阿比林市,占地1000英亩,计划建造全球最大的 AI 训练集群。OpenAI 与软银、甲骨文等多家知名企业建立了紧密的合作关系。软银 CEO 孙正义将担任 Stargate 董事长,负责整体财务规划,而 OpenAI 则负责日常运营。 除了 Stargate 项目外,OpenAI 还将与 Arm、微软和英伟达等巨头合作,进一步推动 AI 技术的发展与应用。这一系列的举措显示了 OpenAI 在全球 AI 基础设施竞赛中的强烈竞争意识和技术雄心。 值得一提的是,随着 GPU 需求的激增...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- CentOS6,CentOS7官方镜像安装Oracle11G
- CentOS7设置SWAP分区,小内存服务器的救世主
- Docker安装Oracle12C,快速搭建Oracle学习环境
- CentOS6,7,8上安装Nginx,支持https2.0的开启
- Linux系统CentOS6、CentOS7手动修改IP地址
- CentOS7,CentOS8安装Elasticsearch6.8.6
- CentOS关闭SELinux安全模块
- Eclipse初始化配置,告别卡顿、闪退、编译时间过长
- SpringBoot2更换Tomcat为Jetty,小型站点的福音
- SpringBoot2全家桶,快速入门学习开发网站教程