AI 大模型应用架构演进: LLM → RAG → AI Workflow → AI Agent 原创

发布于 2025-7-14 09:17
浏览
0收藏

当前 AI 大模型应用企业落地建中存在的一个突出问题是:盲目追求先进技术而忽视实际业务需求,导致 AI 系统过度复杂、成本高昂且可靠性差。在 AI 智能体热潮中,许多团队迷失了方向,不清楚何时该用简单的 LLM,何时需要 RAG,以及什么场景才真正需要 AI 智能体。

AI 大模型应用架构演进: LLM → RAG → AI Workflow → AI Agent-AI.x社区

本文以简历筛选这一典型应用场景为例,系统阐述了 AI 大模型应用架构演进的四个核心阶段:从最基础的纯 LLM 架构,到增强检索能力的 RAG 系统,再到具备工具调用能力的 AI 工作流,最终发展为具有自主决策能力的 AI 智能体。每个架构层级都有其适用场景和技术边界:简单的分类任务可能只需要基础的提示词工程,而复杂的端到端业务流程才需要 AI 智能体的自主规划能力。在追求功能丰富性的同时,必须优先考虑企业落地 AI 应用系统的可靠性和稳定性。

下文详细剖析之。

一、AI 大模型应用架构演进

1、AI 智能体架构不是万能的

AI 智能体现在是个热门话题,但在企业落地过程中并不是每个业务系统都需要使用 AI 智能体。

虽然 AI 智能体承诺了自主性和决策能力,但更简单且节省成本的解决方案能更好地服务于许多实际用例。关键在于为手头的业务场景如何选择合适的架构。

AI 大模型应用架构演进: LLM → RAG → AI Workflow → AI Agent-AI.x社区

我和团队有幸参与了各种复杂度的 LLM 项目,从简单的提示词工程到链式思考推理,从基于 RAG 的架构到复杂的工作流和自主 AI 智能体。

AI 大模型应用落地虽然发展了2年多,但是仍是一个新兴领域,MCP/A2A/AG-UI/Context Engineering 术语仍在不断发展。不同概念之间的界限仍在定义中,分类也还在变动。随着该领域的进步,新的框架和实践不断涌现,以构建更可靠的 AI 大模型应用系统。

为了演示这些不同的 AI 系统架构,我们将介绍一个企业落地常见场景:简历筛选应用,来剖析这些 AI 系统架构的的区别和联系。

2、纯 LLM 架构设计

纯 LLM 架构设计本质上是对互联网的有损压缩,是其训练数据中知识的一个快照。它涉及在这些存储知识的任务上表现出色:总结小说、撰写关于全球变暖的文章、向5岁小孩解释狭义相对论,或者创作俳句。

然而,如果没有额外的能力,LLM 无法提供实时信息,比如:北京的当前温度。这正是纯 LLM 与 Qwen-3 等对话式应用的区别,后者通过实时搜索和额外工具增强了其核心 LLM 的能力。

不过,并非所有的增强都需要外部上下文。通过提示词技术,包括上下文学习和少样本学习,可以帮助 LLM 解决特定问题,而无需检索上下文。

应用案例:

要检查简历是否符合职位描述,可以利用具有单个示例的提示词技术和上下文学习技术,就能让 LLM 根据职位描述对简历进行「通过/不通过」的二分类判断。

AI 大模型应用架构演进: LLM → RAG → AI Workflow → AI Agent-AI.x社区

3、RAG 架构设计

检索方法通过为 LLM 提供相关的上下文信息,增强了其能力,使输出结果更具时效性、精确性和实用性。这项技术让 LLM 能够访问并处理内部数据。这些上下文信息使 LLM 能够提取信息、生成摘要并作出回应。RAG 还能通过实时数据检索来获取最新信息。

应用案例

在简历筛选场景中,通过检索公司的内部数据(比如:工程操作手册、招聘政策及历史简历资料)来丰富上下文信息,从而做出更准确的分类判断。

检索过程通常需要借助向量化工具、向量数据库和语义搜索等技术来实现。

AI 大模型应用架构演进: LLM → RAG → AI Workflow → AI Agent-AI.x社区

4、工具调用(Tool Use)和 AI 工作流(AI Workflow) 架构设计

LLM 能够通过定义明确的路径实现业务流程自动化,这类系统最适合处理结构清晰、标准统一的任务。

通过使用工具调用(Tool use)可以实现工作流自动化。通过 Function Calling 和 MCP 技术对接各类 API(包括:计算器、日历、邮件服务或搜索引擎等),LLM 可以利用可靠的外部工具,而非依赖其存在非确定性的原生能力。

应用案例

这个 AI 工作流可以连接招聘门户获取简历和职位描述 → 根据经验、学历和技能评估投递简历者的资质 → 发送相应的邮件回复(拒信或面试邀请)。

要实现这个简历筛选工作流,LLM 需要访问数据库、邮件 API 和日历 API,并按照预设步骤以编程方式实现全流程自动化。

AI 大模型应用架构演进: LLM → RAG → AI Workflow → AI Agent-AI.x社区

5、AI 智能体架构设计

AI 智能体是能够自主推理和做决策的系统。它们可以把任务拆分成多个步骤,根据需求调用外部工具,评估执行结果,并自主决定下一步的行动(比如:存储结果、请求人工干预或继续执行下一步)。

这代表了在工具调用和 AI 工作流之上的更高一级抽象,实现了规划和决策的自动化。

与 AI 工作流不同,后者需要明确的用户触发器(比如:点击按钮)并且必须遵循预设的路径,AI 智能体可以自主启动工作流,并动态决定各个环节的执行顺序和组合方式。

应用案例

AI 智能体可以管理整个招聘流程,包括:解析简历、通过聊天或邮件协调面试时间、安排面试会议,以及处理日程变更等。

要完成这样综合性的任务,LLM 需要具备访问数据库、邮件和日历 API,以及聊天和通知系统的权限。

AI 大模型应用架构演进: LLM → RAG → AI Workflow → AI Agent-AI.x社区

6、AI 大模型应用架构设计总结

第一、并非所有 AI 大模型应用系统都需要 AI 智能体架构

应从简单、可组合的模式入手,按需逐步增加复杂度。在某些场景下,仅通过检索功能就能满足需求。以简历筛选为例,当筛选标准和后续操作都很明确时,基础的工作流就能胜任。只有在需要更大的自主性以减少人工干预时,才应考虑采用 AI 智能体方案。

第二、注重可靠性,而非功能的丰富性

LLM 的非确定性特质使得构建可靠的系统颇具挑战。虽然快速验证概念(proofs of concept)可行,但在将其扩展到生产环境时往往会暴露各种问题。建议从沙盒环境起步,实施统一的测试方法,并通过防护机制来确保系统的可靠性。


本文转载自​玄姐聊AGI​  作者:玄姐

©著作权归作者所有,如需转载,请注明出处,否则将追究法律责任
收藏
回复
举报
回复
相关推荐