
回复
在AI时代,“提示工程”正在让位于更强大的“上下文工程”。上下文工程不仅是写一个提示词,而是为模型设计、收集、组织所有必要的信息与工具,使其能在恰当的时间以最优的方式完成任务。这一理念正成为打造高效AI智能体的关键。
在过去,AI应用的核心技能是编写精确的提示词(Prompt Engineering)。然而,随着大型语言模型(LLM)和自主智能体(Agents)的普及,我们发现,影响智能体成败的最大因素不再是模型的性能,而是提供给它的“上下文”质量。
Tobi Lutke 将上下文工程(Context Engineering)定义为:
“为任务提供所有使其在LLM中可被合理解决的上下文艺术。”
上下文不仅仅是你输入给LLM的一段问题,而是模型在生成回答前看到的所有信息合集,包括但不限于:
“便宜的演示”与“神奇的产品”差别,并不在于代码的复杂度,而在于提供给模型的上下文是否充足。
示例对比:
明天可以,请问您方便的时间是?
嘿 Jim!明天我全天排满,周四上午有空,方便吗?我已发了邀请,等你确认。
这里的差异不来自“更智能的模型”,而是上下文质量的差异。
上下文工程不仅是提示词的扩展,而是一套系统化的工作流:
未来构建强大智能体的关键,不是“凑一个提示词”或等待模型升级,而是在合适的时间,以合适的格式,为模型提供合适的上下文。这是一项跨业务、技术、产品的协作挑战,需要精确理解任务、明确目标输出,并高效组织信息。
本文转载自知识图谱科技,作者:Wolfgang