前言:
Dify 是一款开源的大语言模型(LLM)应用开发平台。它融合了后端即服务(Backend as Service)和 LLMOps 的理念,使开发者可以快速搭建生产级的生成式 AI 应用。即使你是非技术人员,也能参与到 AI 应用的定义和数据运营过程中。
由于 Dify 内置了构建 LLM 应用所需的关键技术栈,包括对数百个模型的支持、直观的 Prompt 编排界面、高质量的 RAG 引擎、稳健的 Agent 框架、灵活的工作流,并同时提供了一套易用的界面和 API。这为开发者节省了许多重复造轮子的时间,使其可以专注在创新和业务需求。
一、本地化部署
Dify官方githup地址:https://github.com/langgenius/dify
我的配置
- 操作系统:Mac M1
- npm:10.5.0
- node:20.15.1
- pnpm:9.8.0
Dify配置电脑要求:
- CPU >= 2 Core
- RAM >= 4 GiB
01安装Docker
安装地址:https://www.docker.com/,根据自己电脑操作系统去选择对应的版本。Apple Silicon 芯片(也称为 M1、M1 Pro、M1 Max、M2 等)设计的,另一个则是为 Intel 处理器设计的。
02安装Dify
(1)拉取代码到本地
git clone https://github.com/langgenius/dify.git(2)docker部署
这里使用 Docker Compose 服务,它通常用于在多容器环境下启动一个应用
cd difycd dockercp .env.example .env //.env.example 文件复制到 .envdocker compose up -d //启动 Docker Compose 服务,并根据 .env 文件中的配置启动容器出现下图就说明镜像安装成功
(3)查看服务状态
docker compose ps可以看到10个容器都启动成功
(4)web端部署
这里我使用pnpm来安装依赖,我使用yarn安装时会报错
cd webpnpm i启动web
yarn run dev运行后,可以在浏览器上访问 http://localhost/install 进入 Dify 控制台并开始初始化安装操作。
(5)登录
设置完程管理员账号之后,就登录到Dify页面,可以自主创建应用
二、可能出现的问题
01拉取镜像超时
在拉取镜像过程中可能会出现超时,这里我们配置一下docker拉取镜像源的地址,打开docker面板,点击“设置”,选择“Docker Engine”
把下面代码粘贴进去
{ "builder":{ "gc":{ "defaultKeepStorage":"20GB", "enabled":true } }, "experimental":false, "registry-mirrors":[ "http://docker.m.daocloud.io/", "http://huecker.io/", "http://dockerhub.timeweb.cloub", "http://noohub.ru/", "http://dockerproxy.com", "http://docker.mirrors.ustc.edu.cn", "http://docker.nju.edu.cn", "http://xx4bwyg2.mirror.aliyuncs.com", "http://f1361db2.m.daocloud.io", "http://registry.docker-cn.com", "http://hub-mirror.c.163.com" ] }0280端口被占用
页面始终在转圈的状态,查看一下是否80端口占用,Dify默认nginx端口为80,查看有哪些进程占用80端口
sudo lsof -i :80有占用情况则直接kill掉
sudo kill -9<PID>另一种解决办法就是修改默认的80端口
在.env.example中,修改NGINX_PORT为80,NGINX_SSL_PORT为4436,这里的端口可以改成其他的
# HTTP portNGINX_PORT=83# SSL settings are only applied when HTTPS_ENABLED is trueNGINX_SSL_PORT=4436改完之后,我们就重启dify的docer服务,首先删除并停止 Docker Compose 管理的所有容器
docker compose down等docker容器都remove之后,再执行:
docker compose up -d此时前端的url就变成了:http://localhost:83
另外.env 配置中还有SERVICE_API_URL和APP_WEB_URL两个配置项,设置为http://ip:port,这个用于API地址以及智能体地址分享
03自定义配置
参考 .env.example 文件中的注释,并更新.env文件中对应的值。此外,您可能需要根据您的具体部署环境和需求对docker-compose.yaml文件本身进行调整,例如更改镜像版本、端口映射或卷挂载。完成任何更改后,请重新运行docker-compose up -d
普通人如何抓住AI大模型的风口?
领取方式在文末
为什么要学习大模型?
目前AI大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。
目前,开源人工智能大模型已应用于医疗、政务、法律、汽车、娱乐、金融、互联网、教育、制造业、企业服务等多个场景,其中,应用于金融、企业服务、制造业和法律领域的大模型在本次调研中占比超过30%。
随着AI大模型技术的迅速发展,相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业:
人工智能大潮已来,不加入就可能被淘汰。如果你是技术人,尤其是互联网从业者,现在就开始学习AI大模型技术,真的是给你的人生一个重要建议!
最后
只要你真心想学习AI大模型技术,这份精心整理的学习资料我愿意无偿分享给你,但是想学技术去乱搞的人别来找我!
在当前这个人工智能高速发展的时代,AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长,真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料,能够帮助更多有志于AI领域的朋友入门并深入学习。
真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发
【附赠一节免费的直播讲座,技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等,欢迎大家~】
大模型全套学习资料展示
自我们与MoPaaS魔泊云合作以来,我们不断打磨课程体系与技术内容,在细节上精益求精,同时在技术层面也新增了许多前沿且实用的内容,力求为大家带来更系统、更实战、更落地的大模型学习体验。
希望这份系统、实用的大模型学习路径,能够帮助你从零入门,进阶到实战,真正掌握AI时代的核心技能!
01教学内容
从零到精通完整闭环:【基础理论 →RAG开发 → Agent设计 → 模型微调与私有化部署调→热门技术】5大模块,内容比传统教材更贴近企业实战!
大量真实项目案例:带你亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事!
02适学人群
应届毕业生:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。
零基础转型:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界。
业务赋能突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型。
vx扫描下方二维码即可
【附赠一节免费的直播讲座,技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等,欢迎大家~】
本教程比较珍贵,仅限大家自行学习,不要传播!更严禁商用!
03入门到进阶学习路线图
大模型学习路线图,整体分为5个大的阶段:
04视频和书籍PDF合集
从0到掌握主流大模型技术视频教程(涵盖模型训练、微调、RAG、LangChain、Agent开发等实战方向)
新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路(不吹牛,真有用)
05行业报告+白皮书合集
收集70+报告与白皮书,了解行业最新动态!
0690+份面试题/经验
AI大模型岗位面试经验总结(谁学技术不是为了赚$呢,找个好的岗位很重要)
07 deepseek部署包+技巧大全
由于篇幅有限
只展示部分资料
并且还在持续更新中…
真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发
【附赠一节免费的直播讲座,技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等,欢迎大家~】