从模型之战到Agent之战:未来90天必须关注的3个信号

发布于 2025-8-20 06:51
浏览
0收藏

今天给家人们分享一下,2025 AI Agents的六大趋势、Multi-Agents的协作架构、Agent的自主L1 ~ L5等级 ~

从模型之战到Agent之战:未来90天必须关注的3个信号-AI.x社区

趋势一:DeepResearch Agent —— 任务从执行到拆解与监督

我们最熟悉的Agent模式是接收一个任务,然后自己从头干到尾。

DeepResearch的玩法变了,它引入了一个Manager的角色。

Manager 不亲自干活,核心任务是两件事:

  • 拆解任务:把一个复杂问题(比如“分析Q3季度AI Agent行业报告”)拆解成一堆更小的、可以独立执行的子任务(文献检索、数据验证、图表生成、摘要撰写等)。
  • 监督与整合:把这些子任务派发给不同的“专家Agent”,然后监督它们的工作,最后将结果整合成一份完整的报告。

从模型之战到Agent之战:未来90天必须关注的3个信号-AI.x社区

Anthropic Multi-Agent Architecture in Action

Anthropic 的 Deep Research,就是用的这种 Orchestrator-Workers 模式。

主Agent(Opus 4)负责策略制定和任务分配,子Agent(Sonnet 4)负责并行执行,性能直接提升了90%以上。

趋势二:Coding Agents —— 从单人开发到AI软件团队

编程可能是Agent最快落地的领域。单个Coding Agent也许能写一个函数或修复一个bug,但面对整个软件生命周期(需求、设计、编码、测试、部署)就有一点扛不住了。

所以大家都在说,未来的AI编程,会是一个AI Team:

  • 产品经理Agent:负责理解需求,编写PRD。
  • 架构师Agent:设计系统架构和技术选型。
  • 程序员Agent:编写具体的代码。
  • 测试工程师Agent:编写单元测试和集成测试。
  • 运维工程师Agent:负责部署和监控。

从模型之战到Agent之战:未来90天必须关注的3个信号-AI.x社区

这种协同工作的模式,让AI真正有能力端到端地交付一个完整的软件项目,而不再只是个高级的代码补全工具。

趋势三:CUA (Computer Using Agents) —— 桌面不再是界面,而是可编程环境

让Agent操作我们的电脑,一直是行业的终极目标之一。但单一Agent学习操作无数软件的成本极高,而且非常脆弱。

一个新思路是:为不同的任务和软件训练专门的Agent。

  • 一个Excel Agent,精通所有表格操作和数据透视。
  • 一个Photoshop Agent,擅长图像处理和设计。
  • 一个浏览器Agent,负责信息检索和在线操作。

当一个复杂任务(比如“从网页下载数据,整理到Excel,然后做成PPT”)下达时,一个“总管Agent”会依次调用这些“专家Agent”来接力完成。

趋势四:Agentic RAG —— RAG已死,可反思、可规划的检索当立

传统的RAG就是个“问-查-答”的单向过程,AI无法判断检索到的内容是否准确或充分。

从模型之战到Agent之战:未来90天必须关注的3个信号-AI.x社区

Agentic RAG则是一个动态的、可反思的多Agent流程:

  1. 查询Agent:负责理解用户问题,并将其转化为多个检索查询。
  2. 检索Agent:并行执行查询,从多个数据源获取信息。
  3. 评估Agent:评估检索结果的质量和相关性,如果信息不足,会要求“查询Agent”重新生成查询。
  4. 总结Agent:基于筛选后的高质量信息,生成最终答案。

这个过程引入了规划、执行、反思的闭环,让信息检索的可靠性发生了质的飞跃。

趋势五:Agent Protocols —— 让AI们说同一种语言

当成千上万的Agent需要协作时,必须有一套统一的“沟通协议”,就像互联网的TCP/IP一样。这就是Agent Protocols要解决的问题。

从模型之战到Agent之战:未来90天必须关注的3个信号-AI.x社区

无论是OpenAI的MCP,还是Google的A2A,它们都在尝试定义一套标准,让不同的Agent能够:

  • 互相发现 (Discovery):知道彼此的存在和能力。
  • 任务分配 (Task Assignment):清晰地传递任务和上下文。
  • 数据交换 (Data Exchange):安全、高效地共享信息和状态。

趋势六:Voice Agents —— 从语音助手到实时AI队友

未来的语音交互,不会是一个孤立的AI在回答你。当你开车时,一个多Agent语音系统可能正在协作:

从模型之战到Agent之战:未来90天必须关注的3个信号-AI.x社区

  • 感知Agent:负责将你的语音转化为文本,并理解意图。
  • 导航Agent:实时规划路线。
  • 通讯Agent:帮你拨打电话或回复消息。
  • 娱乐Agent:控制音乐播放。

它们在一个共享的上下文中无缝协作,提供的是一种情景感知、主动服务的环境智能,这与Siri、小爱同学这类被动响应的“语音助手”有本质区别。

Multi-Agent的协作架构

那么,这些Agent们到底是如何协同工作的呢?微软Azure和Anthropic给出了几乎一致的答案,我们可以将其归纳为五种核心编排模式。

1. Sequential Orchestration: 像工厂流水线,每个Agent处理上一个Agent的输出。适用于“起草-审查-润色”这类线性工作流。

从模型之战到Agent之战:未来90天必须关注的3个信号-AI.x社区

2. Concurrent Orchestration: 多个Agent同时处理同一个任务,从不同角度提供见解(比如技术、商业、创意),然后汇总。

从模型之战到Agent之战:未来90天必须关注的3个信号-AI.x社区

3.Group Chat Orchestration: 所有Agent在一个共享的对话中协作,由一个“聊天管理器”协调流程,适合头脑风暴或复杂问题决策。

从模型之战到Agent之战:未来90天必须关注的3个信号-AI.x社区

4. Handoff Orchestration: 任务在一个Agent网络中动态传递,每个Agent评估任务后,决定是自己处理还是移交给更合适的Agent,非常适合复杂的客户服务场景。

从模型之战到Agent之战:未来90天必须关注的3个信号-AI.x社区

5. Magentic Orchestration: 专为开放式、无预定解决方案的复杂问题设计。一个“经理Agent”会动态构建和完善任务列表,并与“专家Agent”协作来制定和执行计划。

从模型之战到Agent之战:未来90天必须关注的3个信号-AI.x社区

Agent的治理与风险

当Agent可以自主行动时,一个终极问题浮出水面:我们如何控制它们?

华盛顿大学在2025年的一篇论文中,提出了一个“AI自治五级”框架,它不关注Agent的能力,只关注用户在交互中的角色。

从模型之战到Agent之战:未来90天必须关注的3个信号-AI.x社区

Levels of Autonomy

  • L1 操作员 (Operator):人类完全控制,AI仅提供建议或执行单步操作。
  • L2 协作者 (Collaborator):人机协同,多轮沟通,动态分配任务。
  • L3 顾问 (Consultant):AI主动规划和执行,人类提供反馈和方向。
  • L4 审批者 (Approver):AI几乎完全独立,仅在关键节点寻求人类批准。
  • L5 观察者 (Observer):AI完全自主,人类仅监督和拥有“紧急停止按钮”。

最后

2025年,AI Agent领域最激动人心的故事,不再是关于某个模型跑分又提升了多少,而是关于智能体之间如何形成高效、可靠的协作。

从DeepResearch的任务拆解,到Coding Agent的软件团队...

我们正在见证智能体时代的到来。

本文转载自​​探索AGI​​,作者:猕猴桃

收藏
回复
举报
回复
相关推荐