2.6 DeepResearch 深度研究助手的容器化部署与测试
导语:大家好,欢迎来到我们第二周的最后一讲。在过去的几天里,我们成功地从零到一构建了一个强大的多智能体研究系统——DeepResearch。它可以在我们的本地机器上出色地完成任务。但是,如何将这个强大的 AI 应用交付给最终用户?如何确保它在任何环境下都能以相同的方式、可靠地运行?答案就是容器化。在本章中,我们将学习如何使用Docker,将我们的 DeepResearch 应用及其所有依赖项,打包成一个独立的、可移植的、生产就绪的容器。这不仅是 MLOps(机器学习运维)的关键一步,也是衡量一个 AI 应用是否真正“可用”的重要标准。
目录
- 从“我的电脑能跑”到“到处都能跑”:为什么需要容器化?
- “依赖地狱”:Python 环境的脆弱性
- Docker 的核心价值:环境隔离、一致性、可移植性
- 部署流程概览:代码 -> Dockerfile -> 镜像 (Image) -> 容器 (Container)
- 第一步:暴露 API 端点
- 让 Agent 可被调用:为什么需要一个 API Server?
- 使用 FastAPI 封装 L