【AI工具】本地部署 Dify + Ollama 实现无限 Token 智能体搭建

张开发
2026/4/16 1:42:10 15 分钟阅读

分享文章

【AI工具】本地部署 Dify + Ollama 实现无限 Token 智能体搭建
前言Dify 是一个开源的智能体搭建平台支持快速构建 AI 应用。本教程将详细介绍如何将 Dify 运行在本地并结合 Ollama 使用本地大模型实现无限 Token的 AI 开发体验。为什么选择本地部署✅无限 Token使用本地模型不消耗 API 额度✅数据安全所有数据都在本地不上传云端✅灵活定制支持自定义模型和行为✅离线可用无需网络即可使用⚠️系统要求macOS 版本需大于 14.0一、环境准备1.1 下载 DockerDocker 是容器化平台用于运行 Dify 的各个服务组件。下载地址https://www.docker.com1.2 下载 OllamaOllama 是本地大模型运行平台支持一键部署和运行各种开源大模型。下载地址https://ollama.com1.3 下载模型安装完 Ollama 后可以在官网的模型广场选择需要的模型或者直接在 Ollama 聊天界面选择。模型广场https://ollama.com/models二、Dify 项目部署2.1 拉取 Dify 项目本教程使用 Gitee 镜像源拉取速度更快gitclone https://gitee.com/dify_ai/dify.git拉取成功的日志Cloning intodify... remote: Enumerating objects:496996, done. remote: Counting objects:100%(143449/143449), done. remote: Compressing objects:100%(70082/70082), done. remote: Total496996(delta109997), reused103322(delta70904), pack-reused353547(from1)Receiving objects:100%(496996/496996),285.89MiB|3.30MiB/s, done. Updating files:100%(11081/11081), done.2.2 配置环境文件进入 Dify 目录复制环境配置文件cddifycp.env.example .env2.3 启动 Docker 容器进入 docker 文件夹启动所有服务cddockerdockercompose up-d提示如果首次启动失败多尝试几次即可。2.4 验证部署结果打开 Docker Desktop检查容器运行状态2.5 配置 Docker 镜像加速可选为了后续下载更流畅建议配置国内镜像加速器三、Dify 基础配置3.1 创建账号浏览器访问 Difyhttp://localhost/signin使用邮箱和密码注册账号本地数据账号信息可自定义。3.2 配置 Ollama 模型点击右上角头像 →设置前往插件市场搜索并安装 Ollama 插件Ollama 插件地址https://marketplace.dify.ai/search/all?qollama安装完成后在设置中添加模型模型配置参考四、创建第一个智能体4.1 进入工作室回到 Dify 首页点击创建空白应用4.2 智能体配置进入智能体创建页面可根据需求配置模型选择选择已配置的 Ollama 模型对话设定设置智能体角色和行为工具调用配置需要的工具插件提示词编写系统提示词五、常见问题Q1Docker 容器启动失败# 查看容器日志dockerlogscontainer_name# 重启所有容器dockercompose restartQ2Ollama 模型下载慢# 使用代理或镜像源exportOLLAMA_HOSThttps://your-proxy.comQ3无法连接 Ollama确保 Ollama 服务正在运行# 检查 Ollama 状态curlhttp://localhost:11434六、总结通过本教程你已经成功在本地部署了 Dify Ollama 环境可以 创建各种类型的 AI 智能体 节省 API 调用成本 保证数据隐私安全 快速迭代 AI 应用相关资源资源链接Dify 官网https://dify.aiOllama 官网https://ollama.comDify GitHubhttps://github.com/langgenius/difyOllama 模型库https://ollama.com/library作者VON博客https://blog.csdn.net/2302_80329073如果对你有帮助欢迎点赞、收藏

更多文章