零成本玩转边缘 AI:基于 EdgeOne Pages 快速搭建你的专属 DeepSeek R1

张开发
2026/4/5 9:20:55 15 分钟阅读

分享文章

零成本玩转边缘 AI:基于 EdgeOne Pages 快速搭建你的专属 DeepSeek R1
零成本玩转边缘 AI基于 EdgeOne Pages 快速搭建你的专属 DeepSeek R1引言随着边缘计算与 AI 技术的深度融合开发者对快速部署、低成本且高性能的 AI 工具需求日益迫切。比如过去你想要部署 DeepSeek你必须要有服务器来承载不管是本地主机还是云服务器终究离不开服务器这一关。然而近期腾讯云旗下 EdgeOne Pages 推出的 MCP Server边缘计算平台与 DeepSeek R1开源推理模型的组合打破了这一禁锢。你可以不用服务器不用本地主机也可以轻松部署你的专属 DeepSeek。引言随着边缘计算与 AI 技术的深度融合开发者对快速部署、低成本且高性能的 AI 工具需求日益迫切。比如过去你想要部署 DeepSeek你必须要有服务器来承载不管是本地主机还是云服务器终究离不开服务器这一关。然而近期腾讯云旗下 EdgeOne Pages 推出的 MCP Server边缘计算平台与 DeepSeek R1开源推理模型的组合打破了这一禁锢。你可以不用服务器不用本地主机也可以轻松部署你的专属 DeepSeek。在开始操作之前还是先来了解一下本文涉及到的几个主角。EdgeOne Pages什么是 EdgeOne Pages以下是来自官方的描述【EdgeOne Pages 是基于 Tencent EdgeOne 基础设施打造的前端开发和部署平台专为现代 Web 开发设计帮助开发者快速构建、部署静态站点和无服务器应用。通过集成边缘函数能力实现高效的内容交付和动态功能扩展支持全球用户的快速访问。】下面是我们在 EdgeOne Pages 公测平台部署之后的预览页面无需配置和管理服务器等基础设施只需简单几步就可以享受免费、稳定的服务快速部署首先进入 Pages 控制台选择左侧菜单【Pages】选中右侧【从模板开始】打开模板列表页面在模板列表页面选择【DeepSeek-R1 for Edge】模板进入模板详情页面在模板详情页面选择 Git 平台这里我选择 Gitee 平台并授权授权后可以选择自己的账号空间其他的默认点击【立即创建】。点击立即创建之后EdgeOne Pages 会在你的 Gitee 个人仓库中创建当前部署 DeepSeek-R1 for Edge 模板项目的代码等待部署完成后可以在构建部署页面看到具体的构建日志、构建产物、函数等信息在部署成功页面点击【预览】可以直接打开我们部署后的 DeepSeek-R1 访问页面我们可以直接输入我们想要了解的问题比如说【介绍一下你自己】下面是我们向 DeepSeek R1 发送问题后即可看到响应非常快的流式输出这里我们也可以点击【预览】弹窗页面中 DeepSeek-R1 访问地址下面的【自定义域名】或者点击左侧菜单【项目设置】选择自定义域名这是由于项目域名有时效限制默认是 3 小时自定义域名之后可以一直有效。这里的自定义域名是需要备案后的域名随意输入的域名是无效的在体验完 EdgeOne Pages 模板部署的 DeepSeek-R1 之后我们可以到我们的 Gitee 账号仓库看到我们我们仓库中自动加载的模板源码项目应用到这里基于 EdgeOne Pages 快速搭建对话型 AI 的网站的操作就完成了整个操作很简单操作完成后可以直接将访问域名嵌入业务系统在业务系统标头直接体验无需登录无需服务器部署的 DeepSeek-R1 AI 对话服务相对于业务操作人员来说可以在业务系统即可进行 AI 对话我们直接将 EdgeOne Pages 平台项目的访问域名嵌入业务系统比如现在我需要生成一个初级会计职称报名的公告那么直接点击【AI 对话】在跳转的 AI 对话页面输入【生成一个初级会计职称报名的公告】等待 AI 对话返回后可以将返回内容放入公告新增页面的编辑输入框中保存后在公告管理列表页面点击公告名称可以查看当前公告的详细信息这里可以看到通过 EdgeOne Pages 部署的 AI 对话模板生成的内容是可以直接带格式复制应用的相对于通过 API 接口的访问方式来说保留了原始格式就比较方便修改和调整源码部署那么为什么使用 EdgeOne Pages在回答这个问题之前我们先来本地部署一下我们上面提到的基于 EdgeOne Pages 部署的【DeepSeek-R1 for Edge】模板在本地部署之前我们首先需要准备一下运行环境以及运行工具这里用到的是 cursor 运行工具。cursor 下载安装这里我们首先需要安装一个项目打开和开发工具这里我们用 cursor打开 cursor 官网https://www.cursor.com/cn直接点击【下载 WINDOWS】开发工具下载完成后本地安装默认选择即可Node.js 下载安装在浏览器打开 Node.js 的官网地址https://nodejs.org/zh-cn 在官网首页直接点击【下载 Node.js (LTS)】下载 Node.js 到本地并双击安装整个安装过程全部默认即可安装完成后打开 cmd 命令输入以下命令验证 Node.js 是否安装成功node-vnpm-v执行完成后可以看到如下内容表示 Node.js 安装成功下载模板项目登录 Gitee 仓库地址https://gitee.com/dashboard/projects 这里的 Gitee 是在快速部署时选择授权时选中的 Gitee 账号的仓库地址在 Gitee 仓库可以看到部署时推送的源码点击项目名称【deepseek-r1-edge】进入项目详情页面在项目详情页面点击【克隆/下载】下载 deepseek-r1-edge 源码到本地本地启动解压下载的 deepseek-r1-edge 源码压缩包到本地目录然后用 cursor 打开项目在打开的项目页面点击【Run】-【Start Debugging]在弹出的 Select debugger 页面选择【PowerShell】命令行运行项目随后再命令行窗口【Terminal】输入 以下命令运行本地模板项目npm-v# 验证环境有效npmrun dev# 运行本地环境执行命令可以看到本地模板项目启动成功在浏览器中输入浏览地址http://localhost:3000/ 可以看到我们本地部署的 DeepSeek-R1 for Edge 模板可以成功运行了为什么使用 EdgeOne Pages到这里我们再来说为什么需要使用 EdgeOne Pages。通过我们的快速部署以及本地部署两种方式的对比来看使用 EdgeOne Pages高效的部署流程缩短从代码编写到部署上线的时间保证项目的快速迭代帮助企业迅速应对市场需求同时无需配置和管理服务器等基础设施通过 JS 在靠近用户的边缘节点编写超低延时的服务端逻辑。而本地部署则需要依赖特定运行时环境如 Node.js、Python 或 Docker限制了可落地的应用场景操作复杂对技术有一定要求导致受众面较为狭窄。MCP在提到 MCP 之前首先来了解一下什么是 MCPMCP 是模型上下文协议Model Context Protocol的简称是一个开源协议由 AnthropicClaude 开发公司开发旨在让大型语言模型LLM能够以标准化的方式连接到外部数据源和工具。有了 MCP 标准协议就像给 AI 大模型装了一个 “万能接口”让 AI 模型能够与不同的数据源和工具进行无缝交互。它就像 USB-C 接口一样提供了一种标准化的方法将 AI 模型连接到各种数据源和工具。同时MCP 可以在不同的应用/服务之间保持上下文增强整体自主执行任务的能力。Pages MCP ServerEdgeOne Pages Deploy MCP 是一项专用服务能够将 HTML 内容快速部署到 EdgeOne Pages 并生成公开访问链接。这使您能够立即预览和分享 AI 生成的网页内容。下面我们来通过一个简单的小游戏来区分一下 Pages MCP Server 的使用在打开的 cursor AI 对话框输入【生成一个简单的贪吃蛇小游戏】此时我们会得到一个 snake-game.html 小游戏的页面以及具体的玩法就像这样那么我们在浏览器打开 snake-game.html 页面就可以玩耍了那么下面我们在我们的开发工具 cursor 配置 MCP Server 后再次尝试生成一个贪吃蛇游戏来看一下会有什么不同呢首先配置 cursor 的 MCP Server点击 3【Add new global MCP server】在 mcp.json 配置弹窗中输入如下内容{mcpServers:{edgeone-pages-mcp-server:{command:npx,args:[edgeone-pages-mcp]}}}配置 MCP Server 完成之后设为【Enabled] 可以看到 edgeone-pages-mcp-server 前面的标识变绿色这时候我们再次输入我们的内容【生成一个简单的贪吃蛇小游戏速率降低】在生成贪吃蛇小游戏之后再次输入【发布上面小游戏】则 AI 会自动调用我们部署的 MCP Server 并执行 deploy_html 工具自动发布小游戏也就是 Pages MCP Server 利用无服务器边缘计算能力和 KV 存储通过 API 接收 HTML 内容即可自动生成即时生效的公共访问链接就像这样那么我们就可以将上面生效的公共访问链接放在浏览器直接访问效果如图这里我们就是在与 AI 对话的过程中MCP 允许 AI 在对话过程中调用外部服务就是调用了我们的 deploy_html 发布页面的工具实现了页面的直接发布和公共访问链接访问。结语在 AI 驱动的开发场景中功能碎片化与系统孤岛问题日益凸显——开发者若想在一个 AI 应用中集成联网搜索、邮件通知、云配置管理等能力需逐一对接不同服务的 API 协议面临权限管理、数据格式兼容、错误重试等重复性适配工作开发成本呈指数级上升。MCP模块化通信协议的出现正是为了解决这一核心矛盾它通过定义统一的接口标准与通信规范如数据格式、鉴权机制、服务发现将异构服务AWS、Slack、Github 等抽象为可插拔的能力模块开发者无需关注底层协议差异仅需通过 MCP 声明需求如发送邮件“查询云配置”即可由平台自动匹配并调度标准化服务接口。这种协议层解耦大幅降低了系统集成的边际成本使开发者能聚焦业务逻辑创新而非重复造轮子从而加速 AI 与工具链的深度融合真正释放自动化开发的潜力过去每个软件比如微信、Excel都要单独给 AI 做接口现在 MCP 统一了标准就像所有电器都用 USB-C 充电口AI 一个接口就能连接所有工具。比如你告诉 AI 帮我整理一下学生这个学期的成绩AI 会自动完成用 万能插头MCP 连接你的电脑读取 Excel 成绩并通过分析输出你想要的内容。整个过程不需要你手动操作数据也不会离开你的设备安全又高效。这就是 MCP 的魅力一个万能通用插口可以让 AI 根据你的描述自动调用 MCP Server 工具同时根据你的需要输出你想要的内容一个更懂你的 AI 助手。标签: MCP Server, DeepSeek, 玩转 EdgeOne Pages, 边缘计算AI 部署

更多文章