一、文章背景
今天面试了一家全栈工程师,因为简历上写了MCP相关的内容,面试官看到了问道:你知道什么是MCP吗?项目中怎么用的?我脱口而出,MCP是按照某种协议实现的插件,项目使用MCP就是直接调用MCP服务,然而这样回答面试官好像并不满意,晚上来恶补一下MCP的相关知识。
二、为什么需要MCP
随着AI大语言模式的崛起,全球呈现出大语言模型百家争鸣的盛举,从最开始2022年ChatGPT突然出现在大众的视野,到后来国内各种大模型也纷纷逐渐跟随ChatGPT的脚步,到后来DeepSeek直接一夜爆火,打破大模型需要昂贵的训练资源要求,也是成功把大模型的价格打了下来,各大大模型厂商也争先恐后的推出自家的大语言模型,到现在全民皆可用AI的盛世。好了,为什么需要MCP呢?
大家有没有发现,大语言模型只是提供了一种人机交互的界面,本质上是一个聊天助手,用户和AI采用一问一答的形式,如果把大语言模型比作“一个大脑”,这个大脑有嘴巴,但是却没有“手”,他只能进行语言交流,MCP就是充当“手”的存在,有了手才能去实践,去完成具体的任务,去实践到实处。
举一个荔枝:
比如:我们电脑上有一些excel文件,里面存放着一些资料,你可用很容易的打开这些excel文件,但是对于AI来说就很为难了,它无法直接读取电脑文件夹里面的文件和文件内容,甚至修改文件内容,于是,你不得不手动把文件内容告诉它,让它给出相关的内容,然后自己在手动粘贴到对应的文件里面。既然我们都上AI了,不妨直接让它读取电脑中文件夹里面的文件,按照要求修改文件里面的内容,岂不快哉,这个时候MCP充当了“手”的作用了。
大模型的智商虽然很高,但是没有手足,也是寸步难行,MCP因此诞生。
三、什么是MCP
2024年11月,Anthropic公司发布了MCP(Model Context Protocol)协议,翻译过来就是:模型上下文协议,注意它是一种协议,可以理解为一种规范,比如手机的充电头TOP-C接口一样,只要充电器厂商使用了这种接口进行制作,手机就能够充电,为了方便手机充电,国内的绝大多数手机充电口已经统一为TOP-C接口,除了苹果。
MCP的出现成功让大模型提供了访问外部服务的机会,从靠嘴巴改变世界 -> 靠双手和嘴巴改变世界。
这时候如果懂一点编程的人会想到,这个和方法调用(Function Calling)有什么区别?
这两种技术都是增强AI大语言模型与外界的交互能力,但是MCP不止可以增强AI模型,还可以连接其他的应用系统。
| 类别 | MCP | Function Calling |
|---|---|---|
| 性质 | 协议 | 功能 |
| 范围 | 通用 | 特定场景 |
| 目标 | 统一接口,实现交互操作 | 扩展模型能力 |
| 实现 | 基于标准协议 | 依赖特定模型实现 |
| 开发复杂度 | 低:通过统一的协议开发 | 高:需要为每个任务开发函数 |
| 复用性 | 高:一次开发,多场景使用 | 低:函数通常是特定任务设计 |
| 灵活性 | 高:支持动态适配和扩展 | 低:功能扩展需要额外开发 |
| 场景场景 | 复杂场景,如数据访问和整合 | 简单任务,如数据查询 |
四、MCP核心概念
4.1 架构模式和工作原理
| 架构组件 | 描述 |
|---|---|
| MCP Host | 通过 MCP 访问数据的 Claude Desktop、IDE 、 AI 工具或自己开发应用等程序 |
| MCP Clients | 与服务器保持 1:1 连接的协议客户端 |
| MCP Servers | 轻量级程序,每个程序都通过标准化的 Model Context Protocol 公开特定功能 |
| Local Data Sources | MCP 服务器可以安全访问的计算机文件、数据库和服务 |
| Remote Services | MCP 服务器可以连接到的 Internet 上可用的外部系统(例如,通过 API) |
MCP协议将大模型和资源之间划分为了三个部分:客户端、服务端和资源。
下面我们用一个MCP的工作流程来解释:
- 初始化连接:客户端向服务端发送连接请求,建立通信通道。
- 发送请求:客户端根据需求构建请求消息,发送给服务端。
- 处理请求:服务端接收到消息后,解析消息,执行相应的操作,比如:查询数据,读写文件等。
- 返回结果:服务端将处理结果封装成响应结果,发送给客户端。
- 断开连接:任务完成后,客户端主动关闭连接或等待服务端连接超时。
举一个荔枝:
我们想让大模型查看今天北京的天气怎么样?
俩角色:大模型(客户端)- 高德天气(服务端)
提前告知大模型,你可以通过高德天气查询天气信息哦,当用户给大模型发送查看北京的天气,大模型 就会去 调用 高德天气,高德天气去查询今天北京的天气信息,查询完成后,把天气信息返回给大模型,最后将信息进行提炼,优化响应给到我们相关的天气信息。
4.2 MCP Client
MCP Client 充当 LLM 和 MCP Server 之间的桥梁,MCP Client 的工作流程如下:
- MCP Client 首先从 MCP Server 获取可用的工具列表。将用户的查询连同工具描述通过 function calling 一起发送给 LLM。
- LLM 决定是否需要使用工具以及使用哪些工具。如果需要使用工具,MCP Client 会通过 MCP Server 执行相应的工具调用。工具调用的结果会被发送回 LLM。
- LLM 基于所有信息生成自然语言响应。最后将响应展示给用户。
4.3 MCP Server
MCP Server 是 MCP 架构中的关键组件,它可以提供 3 种主要类型的功能:
- 资源(Resources):类似文件的数据,可以被客户端读取,如 API 响应或文件内容。
- 工具(Tools):可以被 LLM 调用的函数(需要用户批准)。
- 提示(Prompts):预先编写的模板,帮助用户完成特定任务。
这些功能使 MCP server 能够为 AI 应用提供丰富的上下文信息和操作能力,从而增强 LLM 的实用性和灵活性。
五、MCP常见案例
5.1 通过联网搜索向AI提供最新信息
常见的 AI 助手采用通过联网搜索获取实时信息。当用户开启联网搜索时,助手先将用户的请求发送至搜索引擎,再将返回内容与用户输入一起提供给大模型,最终生成回答。搜索引擎在此作为实时信息源,为大语言模型提供额外的上下文。
5.2 通过API向AI提供自有系统数据
如果希望 AI 能提供行业内部信息、或者研发的自有系统内的信息,AI 联网搜索的效果就很不好,甚至无法实现。用户可以自行搭建 AI 代理,将自有系统的数据通过 API 的形式接入 AI 助手,为大语言模型补充提供丰富的上下文信息。
5.3 通过MCP服务器向AI提供上下文信息
MCP 协议解决了 AI 大模型与数据源集成碎片化的问题,提供统一标准,让开发者无需为每个数据源和 AI 助手单独开发连接器。通过 MCP,数据源和 AI 工具可建立安全双向连接,使 AI 在不同工具和数据集间流畅协作,实现更可持续的架构。
六、手动实践MCP插件
6.1 安装Cherry Studio 客户端
请首先安装 1.2.9 版本及以上的 Cherry Studio 客户端,并确保已通过配置合适的模型API,能在Cherry Studio里使用模型进行基本对话,
https://www.cherry-ai.com/download
6.2 在魔搭社区MCP搜索MCP服务
ModelScope通过 MCP广场 为广大开发者提供了海量的MCP服务。可以直接在ModelScope平台上实现托管,供包括Cherry-Studio在内的不同客户端直接集成使用。
6.3 在Cherry Studio中配置ModelScope MCP的同步
在Cherry Studio启用MCP服务需要在「设置」中添加可用的MCP服务配置。可以前往“设置-MCP服务器-同步服务器”快速同步ModelScope MCP服务。
进入后可以看到 CherryStudio默认选中 ModelScope 作为 MCP 服务提供商。Cherry Studio 与ModelScope(魔搭) 达成官方合作,只需要简单的输入您的魔搭 API 令牌,即可一键同步魔搭账号下所有已经配置托管的 MCP 服务配置。
其中 API 令牌可以通过访问“魔搭首页-访问令牌”页面获取。
在获取ModelScope API令牌后,粘贴到步骤3的空格中,并点击「同步」按钮。
可以看到所有已经配置连接的魔搭Hosted MCP服务,都已经同步在Cherry Studio可用MCP服务器列表中。
然后可以愉快地在 Cherry Studio 中体验 AI 助手调用MCP服务完成任务~
6.4 在Cherry Studio中结合模型与MCP的使用
同步MCP服务后,可以在Cherry Studio客户端AI助手消息输入框看到新增的“MCP服务器”图标。
点击即可查看,通过之前同步操作已导入到Cherry Studio中,可直接使用的MCP服务列表。可从这个列表中,多选本次对话期望启用的MCP。
6.5 效果示例
以Fetch网页内容提取 MCP为例,可以看到当我们要求 AI 助手获取相关网页信息时,AI助手调用了“Fetch网页内容获取”MCP服务的工具来完成任务。
同样的,如果其他MCP已经被启用,也可以被AI助手自由调用。例如以下例子,就展示了使用高德地图MCP 来完成完成路线规划。
七、最后总结
纵观人类千年发展历史:从石器时代、铁器时代、蒸汽时代、电气时代、互联网时代,到现在的AI时代,每一个时代都是人类的一个转折点,每个时代的兴起不同职业的从业者都有滞后性,只有不断学习,才能跟上时代发展。
人工智能会取代大多数低级枯燥的工作,当然也会诞生一些新的工种,就像汽车发明之后,马车夫失业,汽车司机上岗,如果只是一味的守着马车,那么不久的将来可能会被时代淘汰。
普通人如何抓住AI大模型的风口?
领取方式在文末
为什么要学习大模型?
目前AI大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。
目前,开源人工智能大模型已应用于医疗、政务、法律、汽车、娱乐、金融、互联网、教育、制造业、企业服务等多个场景,其中,应用于金融、企业服务、制造业和法律领域的大模型在本次调研中占比超过30%。
随着AI大模型技术的迅速发展,相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业:
人工智能大潮已来,不加入就可能被淘汰。如果你是技术人,尤其是互联网从业者,现在就开始学习AI大模型技术,真的是给你的人生一个重要建议!
最后
只要你真心想学习AI大模型技术,这份精心整理的学习资料我愿意无偿分享给你,但是想学技术去乱搞的人别来找我!
在当前这个人工智能高速发展的时代,AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长,真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料,能够帮助更多有志于AI领域的朋友入门并深入学习。
真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发
大模型全套学习资料展示
自我们与MoPaaS魔泊云合作以来,我们不断打磨课程体系与技术内容,在细节上精益求精,同时在技术层面也新增了许多前沿且实用的内容,力求为大家带来更系统、更实战、更落地的大模型学习体验。
希望这份系统、实用的大模型学习路径,能够帮助你从零入门,进阶到实战,真正掌握AI时代的核心技能!
01教学内容
从零到精通完整闭环:【基础理论 →RAG开发 → Agent设计 → 模型微调与私有化部署调→热门技术】5大模块,内容比传统教材更贴近企业实战!
大量真实项目案例:带你亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事!
02适学人群
应届毕业生:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。
零基础转型:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界。
业务赋能突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型。
vx扫描下方二维码即可
本教程比较珍贵,仅限大家自行学习,不要传播!更严禁商用!
03入门到进阶学习路线图
大模型学习路线图,整体分为5个大的阶段:
04视频和书籍PDF合集
从0到掌握主流大模型技术视频教程(涵盖模型训练、微调、RAG、LangChain、Agent开发等实战方向)
新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路(不吹牛,真有用)
05行业报告+白皮书合集
收集70+报告与白皮书,了解行业最新动态!
0690+份面试题/经验
AI大模型岗位面试经验总结(谁学技术不是为了赚$呢,找个好的岗位很重要)
07 deepseek部署包+技巧大全
由于篇幅有限
只展示部分资料
并且还在持续更新中…
真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发