一、背景与问题起源1.1 从 Prompt Engineering 到 Context Engineering传统的 Prompt Engineering 聚焦于单次交互中的提示词优化,其假设是模型上下文窗口足够容纳所需信息。然而,当多智能体系统处理复杂任务时,这个假设迅速失效。范式转移的核心驱动:任务复杂性爆炸:一个典型的多智能体协作流程可能涉及 10+ 轮子任务执行,每轮产生中间结果、工具调用日志、反思总结上下文窗口的经济学:GPT-4o 128K 上下文窗口看似充裕,但每 1K Token 的输入成本约 $0.003(GPT-4o-mini),长任务链的成本可能轻易突破 $10/任务信息相关性衰减:MIT 2024 年的研究表明,LLM 对长上下文中的信息存在"丢失在中间"(Lost in the Middle)问题,距上下文两端越近的信息召回率越高 [2]OpenAI Agents SDK Cookbook 将上下文管理、短期记忆修剪、长期记忆注入置于 agent 构建方法论的中心位置,这标志着行业共识的形成:上下文不是需要填满的空间,而是需要精心设计的资源