性能提升90%,Anthropic 首次公开多智能体架构构建全流程 原创 精华

发布于 2025-6-20 06:33
浏览
0收藏

Anthropic 6月13日分享了关于构建多智能体系统的架构设计,几乎是毫无保留地展示了如何从零开始打造一个强大的多智能体(Multi-Agent)DeepResearch 系统,也就是 Claude 目前内置的 Research 功能。  

整个内容干货满满,涵盖了架构设计、Prompt 提示词工程、效果评估,以及在生产环境中可能遇到的各种问题,可以说毫无保留。

下文对要点详细剖析。

1、多智能体系统的优势

为什么不用单个强大的 AI 智能体,而是要搞复杂的“多智能体”架构呢?

性能提升90%,Anthropic 首次公开多智能体架构构建全流程-AI.x社区

Anthropic 用数据给出了答案:在内部研究评估中,一个由 Claude Opus 4 担任“领导”,多个 Claude Sonnet 4 作为“员工”的多智能体系统,性能比单独使用的 Opus 4 高出 90.2%

背后的逻辑其实很简单:通过投入更多的 Token 来解决问题。Token 的使用量本身就解释了80%的性能差异。多智能体架构通过并行处理,让多个 AI 智能体同时在各自的上下文中思考和搜索,本质上是扩展了解决问题的“算力”和“思考容量”,尤其适合处理那些需要“广度优先”探索的复杂问题。

不过,缺点也很明显:成本高昂。多智能体系统消耗的 Token 大约是普通聊天的15倍。因此,这种架构更适合那些价值足够高、能够承受高成本的复杂任务。

2、多智能体架构设计

Anthropic的 Research 多智能体系统采用了经典的“协调者-工作者”(Orchestrator-Worker)架构。一个“主导智能体”(Lead Agent)负责协调整个流程,并将任务分解后分配给多个并行的专业子智能体(Subagents)。

以下是整个架构设计工作流程的清晰描述:

性能提升90%,Anthropic 首次公开多智能体架构构建全流程-AI.x社区

  • 用户提问:系统创建一个主导智能体(Lead Agent)。
  • 规划:主导智能体思考并制定研究计划,将计划存储在外部“记忆”中,以避免因上下文过长而被截断。
  • 分派:创建多个专业的子智能体(Subagents),并为它们分配具体的研究任务。
  • 执行:每个子智能体独立进行网络搜索、调用工具,并通过“交错思考”(interleaved thinking)来评估结果、调整下一步行动。
  • 汇总:子智能体将发现的结果返回给主导智能体。
  • 综合与迭代:主导智能体综合所有信息,判断是否需要进一步研究。如果需要,则启动新一轮的子智能体任务。
  • 引用与生成:当信息足够时,系统将所有发现交给一个专门的“引用智能体”(Citation Agent),确保所有结论都有可靠的依据,并最终生成带有引用的完整报告。

    性能提升90%,Anthropic 首次公开多智能体架构构建全流程-AI.x社区

    传统的检索增强生成(Retrieval Augmented Generation,RAG)方法采用的是静态检索:即根据输入查询检索出最相似的信息片段,并用这些片段生成回复。相比之下,我们的架构采用多步搜索,能够动态发现相关信息,及时调整策略,并对结果进行分析,从而给出高质量答案。

    这种架构通过分工协作,极大地提高了复杂任务的处理效率和准确性。

    3、多智能体系统的 Prompt 提示词工程设计

    多智能体系统的复杂度呈指数级上升,很容易出现“为了解决一个简单问题而调用50个 AI 智能体”的失控局面。

    而 Prompt 提示词工程是规范和引导 AI 智能体行为的关键。Anthropic 总结了以下8条核心法则:

    1. 像 AI 智能体一样思考:在控制台(Console)中模拟 AI Agent 的工作流程,逐个步骤观察其行为,这样才能直观地发现问题。
    2. 教会 Lead 智能体如何描述子任务:给子智能体的任务描述必须清晰明确,包括目标、输出格式、使用工具和任务边界。模糊的指令如“去研究一下XX”是远远不够的。
    3. 根据任务复杂度调整资源投入:在 Prompt 中明确指定不同难度任务的资源配比。简单任务用1个 AI 智能体,复杂任务则动用10个以上 AI 智能体,避免小题大做。
    4. 工具设计和选择至关重要:工具的描述必须清晰且有区分度。同时,要给 AI 智能体一些启发式规则,比如“先浏览一遍所有可用工具再做决策”。
    5. 让 AI 智能体自我改进:Anthropic 创建了一个“工具测试 Agent”。它会反复试用新工具,并自动重写工具的描述文档,以便后续 AI 智能体使用起来更加顺手。结果是任务完成时间减少了40%。
    6. 先广后窄:引导 AI 智能体像人类专家一样进行研究,先用宽泛的查询了解全貌,再逐步缩小范围,而不是一开始就使用一个又长又窄的查询,否则可能什么也搜不到。
    7. 引导思考过程:使用“思考模式”(extended thinking),让 AI 智能体把思考过程写下来。Lead 智能体用它来规划,子智能体用它来评估每一步的工具调用结果。
    8. 并行工具调用改变游戏规则:让 Lead Agent 并行分派子 Agent,再让每个子 Agent 并行调用工具。这两层并行直接将复杂查询的耗时减少了90%。

    4、多智能体系统的有效评估

    评估多智能体系统不能像传统软件测试那样,只检查它是否遵循了预设的“正确”路径,因为通往正确答案的路径不止一条。Anthropic 的经验是:

    • 立即开始小样本评估:在开发的早期阶段,一个小小的 Prompt 调整可能让成功率从30%飙升到80%。这种巨大的变化通过20个测试用例就能明显看出。不要等到构建几百个测试用例的完美评估系统才开始动手。
    • 用 LLM 当裁判:对于研究这类开放式输出,让 LLM 根据一个标准化的评分表(比如:事实准确性、引用准确性、完整度、信源质量等)来打分,是一种既可扩展又具一致性的方法。
    • 真人测试必不可少:自动化评估总有盲点。比如:真人测试员发现早期 AI 智能体总是倾向于选择 SEO 过度的内容农场,而不是权威的学术 PDF。这些细微的偏好只有通过人工测试才能发现。

    5、多智能体系统生产环境下的可靠性与工程挑战

    从能够运行的 AI 智能体原型到稳定可靠的生产系统,中间隔着巨大的鸿沟。以下是四大工程难题:

    第一、错误恢复

    AI 智能体是长时间运行的,一旦出错,不能简单地从头开始(成本过高)。必须建立一种机制,能够在错误发生的地方恢复,并让 AI 智能体学会优雅地处理工具失效等问题。

    第二、非确定性下的监控

    AI 智能体的行为是动态的,且不完全可复现,这使得调试变得极其困难。唯一的解决办法是建立完善的生产环境追踪系统,监控 AI 智能体的决策模式和交互结构。

    第三、部署协调

    线上随时有大量 AI 智能体在运行,不能直接暴力更新。他们采用“rainbow deployments”(彩虹部署)的方式,平滑地将流量从旧版本迁移到新版本,确保服务不中断。

    第四、同步的瓶颈

    目前系统是同步的,Lead Agent 必须等待一批子 Agent 全部完成后才能进行下一步,这效率很低。未来向异步执行演进是必然趋势,尽管这会带来状态一致性、错误传递等新的挑战。

    6、总结

    在构建 AI 智能体的过程中,最后一公里往往成为最为艰难的阶段。开发者本地能够运行的代码,距离成为可靠的生产系统还需要大量工程化努力。在 AI 智能体系统中,错误具有复合特性,这意味着对于传统软件而言的轻微问题,可能会导致 AI 智能体完全崩溃。只要某一步失败,AI 智能体就可能走向完全不同的路径,进而产生不可预测的结果。正如本文所述,从原型到生产环境之间的鸿沟,往往比人们预期的更为宽广。

    尽管存在这些挑战,多智能体系统在开放性研究任务中依然展现出巨大价值。用户反馈称,Claude 帮助他们发现了未曾考虑过的商业机会,理清了复杂的医疗方案,解决了棘手的技术难题,还能通过揭示原本难以独立发现的研究关联,节省数天工作时间。只要注重工程细节、全面测试、精心设计提示词和工具、完善运维实践,并确保研究、产品与工程团队之间紧密协作,对当前 AI 智能体能力有深刻理解,多智能体研究系统完全可以在规模化应用中保持可靠运行。我们已经看到,这些系统正在改变人们解决复杂问题的方式。


    本文转载自​玄姐聊AGI​  作者:玄姐

    ©著作权归作者所有,如需转载,请注明出处,否则将追究法律责任
    已于2025-6-20 06:33:19修改
    收藏
    回复
    举报
    回复
    相关推荐