池州市网站建设_网站建设公司_前后端分离_seo优化
2026/1/3 1:16:45 网站建设 项目流程

在 AI 助手类工具中,Aider 以其便捷的 Git 进程与 LLM 沟通能力受到广大开发者喜爱;Ollama 则是当前支持最广的本地运行的 LLM 平台之一,支持多种模型如 LLaMA3,Mistral,CodeLlama 等。本文将详细介绍如何在完全本地化和无网环境下,部署 Aider + Ollama,实现类 Codex 能力的自动化编程助手。

一、定位需求:局域网 AI 系统所面临的挑战

局域网环境,特别是严格隔网的内网场景,无法连接外网,无法连 GitHub 下载代码,无法 pip install,也无法连通 PyPI 排版版本等。这些因素需要我们重新设计部署流程,包括:

  • 预先打包好所有 wheel 包;
  • 避免直接拷贝环境,因为路径和 Python 入口失效;
  • 禁止 Aider 启动时去检查 PyPI 版本;
  • 禁止尝试连接 GitHub 查询模型元数据。

二、Ollama 安装与网络分发模型

  1. 制備 Ollama Linux 或 Windows 版本并安装
  2. 从有网机器上下载模型如llama3:instruct
  3. 使用ollama pull llama3:instruct
  4. 把 ~/.ollama 文件夹打包移至局域网内网机器
  5. 启动 Ollama :ollama serve
  6. 可选配使用 LAN proxy 分发模型服务

三、安装 Aider 与零网环境重要讲解

1.打包 wheel 包

在可连网的机器上进行:

pip download aider-d./aider_wheels

将该目录整包移动到内网机器,然后手动安装:

pipinstall--no-index --find-links=./aider_wheels aider

2.不推荐直接拷贝 venv 环境

因为 venv 中 Python 路径和 entrypoint 是系统给定的,直接拷贝应用到不同环境很可能无法使用。建议重新创建 venv 并使用已打包的 wheel 安装所有依赖。

四、禁止 PyPI 和 GitHub 连接,加快启动

1.给 aider 加启动参数,禁止 pypi check

启动 Aider 时加上:

aider --no-check

2.确定已经修改 models.py,禁止联系 GitHub

打开:

~\AppData\Local\Programs\Python\Python312\Lib\site-packages\aider\models.py

查找_update_cache函数,修改为:

def_update_cache(self):# Skip remote model metadata fetch (disabled by local patch)return

此修改可以禁止在内网环境下对 GitHub 进行网络连接,减少启动等待时间。

五、结论:局网下打造私有 AI 系统无需依赖外部网络

通过本文手动部署方案,可以实现:

  • Aider + Ollama 全部部署在局域网,完全本地化
  • 全部进程可规定依赖打包,无需 pip online
  • 修改启动行为,避免因连接超时造成系统泪动

这种部署方式适合于支持内网工程化自动化工作流程,也是私有化 AI DevOps 模型系统的最佳实践之一。

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询