忘掉 Manus 模型上下文协议MCP 正在重新定义智能体的未来 原创

发布于 2025-4-16 07:09
浏览
0收藏

大多数普通人眼里 AI 的模样是什么?看着网站草图,AI就自动做了一个原形网站。只需要告诉 AI 指令,它就帮你完成了一系列的机票订票流程。许多人更是憧憬过 All in One App  —— 我只要动嘴,一切活有AI搞定。可以说,现阶段的 AI 使用形态,充其量就是个氛围组。我只能获取必要的资料指引,具体的活还得我自己来干。

而过去两年的发展,AI Agent 不过是雷声大,雨点小的玩意了。做的人很多,但是能够在路人之间火出圈的产品,大抵也只有 Manus,它的火爆宣告着 —— AI Agent,就是众人的希望。没办法,谁让人类就是这么懒呢?要是一个技术能让我偷懒摸鱼,那最好赶紧的。接触 MCP 之后,全知全能 AI Agent可能真的近在咫尺了,比如下面这些场景。

1. 基于内部文档的智能客服

把帮助文档做成 MCP 服务,直接变身智能客服,不需要做 RAG 知识库,也能够精准解答客户基础问题。

忘掉 Manus 模型上下文协议MCP 正在重新定义智能体的未来-AI.x社区

2. 自动网页爬虫工具

让 AI 自动爬取澳洲各高校录取要求,自动生成汇总生成招生简章,并附上所有引用信源。

忘掉 Manus 模型上下文协议MCP 正在重新定义智能体的未来-AI.x社区

你可以直接点击此处看看它写的咋样。​​http://au.pflm.net/news/​

3. 浏览器操作助手

让 AI 操作浏览器,登录 WP 网站后台,按照你的需求进行点点的操作。我更喜欢这个案例,因为它真的可以看懂你的网页内容,按照你的指令干活。而实现这一切的背后技术,全然离不开 Anthropic 在 24 年 12 月悄的 MCP(模型上下文协议)标准。

接下来,将深入解析 MCP 的概念、技术原理以及多种应用场景,帮助你快速理解并上手 MCP。

什么是 MCP?

MCP(模型上下文协议)是一个标准化工具箱,使 AI 大模型能够与外部工具交互,获取信息并完成具体任务。在传统方法中,用户需要手动复制文本、截图,然后粘贴到 AI 窗口进行交互。而 MCP 通过标准化协议自动化了这一过程,作为 AI 与外部工具的中间层,替代人工操作,相当于一个能够让所有 LLM 顺畅自动使用互联网上的一系列软件工具,只要支持了 MCP,那么不用你教,LLM 自己就会用了。

忘掉 Manus 模型上下文协议MCP 正在重新定义智能体的未来-AI.x社区

智能体普及缓慢最重要的一个原因在于大模型与现有应用和数据的集成度比较低,无法获取多种数据,形成数据孤岛。真是应了那句 “巧妇难为无米之炊”。即使你大模型在强大,没有数据集成、工具的调用,大模型的能力无用武之地。在 Anthropic 发布 MCP 之后将会将 AI 应用开发推向一个高度。许多大模型开发框架 Spring AI、 LangChain4j 都已经集成,包括 OpenAI 也宣布支持 MCP。

MCP 的工作原理

MCP 由多个 MCP 服务器(MCP Server)组成,每个 Server 负责特定任务,例如:

  • 浏览器操作(如读取网页内容)
  • 文档处理(如编辑和解析本地文档)
  • 代码管理(如操作 Git 仓库)

架构组件

描述

MCP Host

通过 MCP 访问数据的 Claude Desktop、IDE 、 AI 工具或自己开发应用等程序

MCP Clients

与服务器保持 1:1 连接的协议客户端

MCP Servers

轻量级程序,每个程序都通过标准化的 Model Context Protocol 公开特定功能

Local Data Sources

MCP 服务器可以安全访问的计算机文件、数据库和服务

Remote Services

MCP 服务器可以连接到的 Internet 上可用的外部系统(例如,通过 API)

架构上也是非常简单,核心内容还是在于三部分内容:MCP Client、MCP Server 以及 Client 与 Server之间的交互协议 Transport。

忘掉 Manus 模型上下文协议MCP 正在重新定义智能体的未来-AI.x社区

工作原理

MCP的工作原理可以概括为三个关键步骤,这三个步骤环环相扣,如同精密的齿轮,推动着 AI 与数据之间的交互 。

1. 调用聊天完成 API 传递函数和用户输入

当我们在  MCP 主机(如 Claude Desktop)上向 AI 助手提出一个问题时,MCP 客户端会将这个问题以及相关的函数调用信息,通过聊天完成  API 传递给 MCP 服务器 。例如,我们询问 “我昨天在 GitHub 上提交的代码有哪些问题?”,MCP 客户端就会把这个问题和与  GitHub 相关的函数调用信息发送给 MCP 服务器。

2. 用模型响应调用 API 或函数

MCP服务器接收到请求后,会将其传递给AI模型。AI模型根据接收到的信息进行分析和处理,然后生成一个响应。这个响应可能包含对API或函数的调用指令。比如,AI模型判断需要获取GitHub上的代码信息,就会生成调用GitHub API的指令,MCP服务器会根据这些指令去调用相应的API或函数,获取所需的数据。

3. 再次调用 API 得到最终响应

MCP服务器获取到API或函数的执行结果后,会将这个结果再次与用户的原始输入一起,通过聊天完成API发送给AI模型。AI模型根据这些信息生成最终的响应,并通过 MCP客户端返回给用户。在上述例子中,MCP服务器将从GitHub获取到的代码信息发送给AI模型,AI模型分析后给出关于代码问题的回答,然后通过MCP客户端展示给用户。

忘掉 Manus 模型上下文协议MCP 正在重新定义智能体的未来-AI.x社区

MCP为大模型带来的变革

MCP 赋予了 AI 自助提问,自主寻找答案和结果的权力, 为 AI 大模型带来了变革。

(一)打破数据孤岛

在传统的数据集成方式中,每个数据源都像是一座孤立的岛屿,与其他数据源之间缺乏有效的连接。不同的数据库、文件系统、服务等,由于各自的接口、协议、数据格式等不同,很难实现数据的自由流动和共享。这就导致AI大模型在获取数据时面临重重困难,无法充分利用各种数据资源来提升自身的能力。

而  MCP 的出现,就像是一场 “数据解放运动”,打破了这些数据孤岛之间的壁垒 。它提供了一个标准化的协议,让AI大模型能够以统一的方式访问各种数据源,无论是本地的文件、数据库,还是远程的 API服务。通过 MCP,不同的数据源可以轻松地连接到AI模型,就像无数条小溪汇聚成一条大河,让数据能够自由地流动起来 。

以一个企业为例,它可能拥有客户关系管理系统(CRM)、企业资源规划系统(ERP)、数据分析平台等多个不同的系统,每个系统都存储着重要的数据  。在过去,这些系统之间的数据很难共享,AI大模型想要获取这些数据,需要分别与每个系统进行复杂的集成 。但有了MCP之后,企业可以通过MCP服务器将这些系统的数据暴露出来,AI大模型只需要通过MCP客户端,就能够轻松地访问这些数据,实现数据的整合和利用,为企业的决策提供更全面、准确的支持 。

(二)简化开发流程

在  MCP 出现之前,开发者要让 AI 大模型与不同的数据源进行交互,需要为每个数据源编写单独的连接器。这就好比你要连接不同的电器设备,却需要为每个设备都准备一种独特的插头,不仅繁琐,而且容易出错。每一个新的数据源,都意味着开发者要花费大量的时间和精力去了解其接口规范、数据格式,编写相应的代码来实现数据的读取、写入和处理。而且,当数据源发生变化或者需要更新时,开发者还需要对连接器进行维护和修改,这无疑增加了开发的成本和复杂性 。

MCP的出现,就像是为所有的电器设备提供了一个通用的插头,让开发者无需再为每个数据源编写单独的连接器。它提供了一个标准化的接口,开发者只需要遵循这个接口规范,就能够轻松地将不同的数据源连接到 AI 大模型 。无论是连接数据库、文件系统,还是调用  API 服务,都变得简单而高效 。

例如,一个开发者想要让 AI 大模型能够访问 GitHub 上的代码仓库和 Slack 上的团队聊天记录 。在没有 MCP 的情况下,他需要分别为 GitHub 和  Slack 编写不同的连接器,处理不同的认证方式、数据格式等问题。而有了MCP之后,他只需要使用 MCP 提供的客户端和服务器 SDK,按照MCP的规范进行配置,就能够快速地实现 AI 大模型与 GitHub 和 Slack 的连接,大大简化了开发流程,提高了开发效率 。

(三)增强模型能力

数据是AI大模型的 “燃料”,更多、更丰富的数据能够让模型学习到更多的知识和模式,从而提升其性能和表现。MCP通过为AI大模型提供无缝的数据访问,让模型能够获取到更广泛、更实时的数据,从而生成更精准、相关的响应 。

当AI大模型能够访问实时的新闻数据时,它在回答关于时事热点的问题时,就能够给出更及时、准确的答案。当模型能够连接到专业的学术数据库时,它在处理学术问题时,就能够提供更深入、专业的见解。MCP还能够让模型在不同的数据源之间进行上下文切换,更好地理解用户的问题和需求 。

比如,在一个智能客服场景中,客服人员向AI大模型询问某个客户的订单信息以及该客户的历史咨询记录。通过MCP,AI大模型可以同时访问订单管理系统和客户服务系统的数据,快速准确地获取到相关信息,并根据这些信息为客服人员提供全面的解答,提高客户服务的质量和效率。MCP就像是为AI大模型打开了一扇通往知识宝库的大门,让模型能够不断地汲取新的知识和信息,变得更加智能和强大 。

快速上手:安装 MCP

就像大部分软件使用一样,想要让 AI 使用上 MCP,那么你得安装一个客户端软件。这个软件不仅要能调 AI,还需要连接 MCP 服务器。

1、安装支持 MCP 的客户端

目前支持 MCP 的客户端较少,基本只有以下工具:

  • Cursor(AI 编程工具,开通 MCP 需支付 20 美元/月)
  • Claude 官方客户端 (美国信用卡 20 美元 / 月)
  • Client(开源免费,本文以此为例)

我知道你们在想啥,不就是钱的事(你还得搞定美国信用卡),所以下文将会用免费的 VS Code + Cline 插件来带你一步步安装 → 感受你的 AI Agent 时刻。

 1.1 安装 Cline 并配置 AI 模型
  1. 下载并安装 VS Code。https://code.visualstudio.com/
  2. 在 VS Code 的 Extensions(插件)市场搜索并安装 Client

忘掉 Manus 模型上下文协议MCP 正在重新定义智能体的未来-AI.x社区

3.配置 AI 模型:

  • 选择 DeepSeek 作为模型提供商。
  • 去 DeepSeek API 平台 () 申请一个 API Key。现在官方的服务器已经可以稳定使用了。

忘掉 Manus 模型上下文协议MCP 正在重新定义智能体的未来-AI.x社区

  • 选择 deepseek-chat。你也可以使用 deepseek-r1,我只是嫌它每次使用工具还要思考一遍,太内耗太慢了。

这安装页面这么程序员,有没有一个更小清新的使用入口?没错希望我朋友圈的大厂里的高人快速整一个,AI 大舞台,有梦你就来。MCP 时代,客户端软件是妥妥的流量入口。

2、安装 Node.js 运行环境

MCP Server 运行在本地的 Node.js 进程上,因此需要安装 Node.js。

  1. 访问 Node.js 官网 下载并安装。https://nodejs.org/
  2. 验证安装:

打开你的终端,运行以下命令:

node -v
npx -v

好了确保成功输出版本号。

3、安装 MCP Server

1. 在 Cline 内点击 MCP Server 按钮,打开 MCP Server 应用市场。

忘掉 Manus 模型上下文协议MCP 正在重新定义智能体的未来-AI.x社区

2. 选择所需的 MCP Server(例如 Playwright 会使用浏览器的工具),点击安装。

忘掉 Manus 模型上下文协议MCP 正在重新定义智能体的未来-AI.x社区

4、 测试 MCP Server

  1. 在 Cline 中输入命令:使用 Playwright 打开网站: au.pflm.net
  2. AI 自动调用 MCP 工具,此时你需要点击同意。

忘掉 Manus 模型上下文协议MCP 正在重新定义智能体的未来-AI.x社区

 3.然后你就可以让 AI 去帮你干活了,比如说扒拉网页中的内容,变成自己的文档。

 4.其它 MCP 工具同理。

更多 MCP 工具推荐

  • browser2:AI 读取浏览器内容,需安装 Chrome 插件。
  • Squint Shell Thinking:将普通大模型转换为推理模型。
  • Filesystem:允许 AI 访问本地文件系统。

你也可以访问访问 Smithery AI https://smithery.ai/ 发现更多 MCP Server。

MCP 作为 AI 与外部工具交互的标准协议,极大提升了自动化能力。掌握 MCP 的基本原理和配置方法,可以帮助你高效利用 AI 进行开发和数据处理。 

忘掉 Manus 模型上下文协议MCP 正在重新定义智能体的未来-AI.x社区

总结

自 Anthropic 公司开源 MCP 以来,它便在AI 领域引起了广泛关注,犹如一颗投入平静湖面的石子,激起层层涟漪。许多知名企业和平台已经敏锐地察觉到MCP的潜力,并纷纷接入。美国金融服务公司 Block Inc. 已经把MCP整合进了他们的系统,借助MCP,能够更高效地处理金融数据,为客户提供更精准的金融服务。

在开源方面,Anthropic 为开发者提供了丰富的资源,包括模型上下文协议规范、软件开发工具包(SDK),以及 Claude 桌面应用程序中的本地 MCP 服务器支持。还提供了一个 MCP 服务器的开源存储库,开发者可以根据自己的需求,在这个基础上进行二次开发,构建出符合自己业务需求的 MCP 应用 。

展望未来,MCP将进一步推动AI生态系统的发展,促进不同AI模型、数据源和工具之间的互联互通。它将成为AI世界的 “通用语言”,让各种AI组件能够更加顺畅地协作,形成一个更加庞大、高效的AI生态网络。在这个生态网络中,开发者可以更轻松地构建出复杂的AI应用,实现更多创新的想法 。

MCP的发展也面临着一些挑战。数据安全和隐私保护始终是重中之重,随着MCP连接的数据源越来越多,如何确保数据在传输和使用过程中的安全性和隐私性,是需要持续关注和解决的问题。不同数据源和系统之间的兼容性问题也不容忽视,MCP需要不断优化,以适应各种复杂的环境。随着MCP的应用场景不断拓展,对其性能和可扩展性也提出了更高的要求,需要不断进行技术创新和改进 。


本文转载自公众号数字化助推器  作者:天涯咫尺TGH

原文链接:​​https://mp.weixin.qq.com/s/30MDvDNE3zF4f2kGHWazbQ​


©著作权归作者所有,如需转载,请注明出处,否则将追究法律责任
已于2025-4-16 10:07:00修改
收藏
回复
举报
回复
相关推荐