Ollama下载及使用

张开发
2026/4/10 10:30:43 15 分钟阅读

分享文章

Ollama下载及使用
Ollama介绍Ollama 是一款轻量、易用的本地大模型运行工具支持在 macOS、Linux、Windows 多系统部署无需复杂配置就能快速运行各类主流大模型适合新手入门和开发者快速调试。它简化了大模型的下载、安装与运行流程同时支持云端模型联动、网络共享、模型存储路径自定义等实用功能兼顾便捷性与灵活性。安装Ollama 支持三大主流操作系统下载安装流程简洁可通过官网直接下载也可通过命令行快速安装具体步骤如下官方下载链接Ollama 下载打开后可根据自己的操作系统Windows/macOS/Linux选择对应版本下载。Linux/macOS 系统可直接通过以下命令一键安装无需手动下载安装包curl -fsSL https://ollama.com/install.sh | shWindows 系统下载安装包后双击运行即可完成安装全程默认下一步即可安装完成后可直接启动 Ollama。大模型选型选择大模型下载路径Ollama 支持多种主流大模型涵盖编码、推理、多模态、翻译等不同场景根据主机硬件配置和自身需求选择合适的模型下载安装流程简单去官网找相关大模型配置信息模型信息并执行指令安装。参数模型及对比新手推荐几款易上手、轻量化的模型适配不同需求qwen3.5阿里开源多模态模型性能出色支持 0.8b~122b 多种参数版本其中 qwen3.5:2b 轻量化适合新手入门、日常对话和简单任务。gemma4谷歌推出的前沿模型支持推理、编码、多模态理解适配多种场景稳定性强。lfm2.5-thinking专为本地部署设计的混合模型轻量化1.2b 参数推理高效适合边缘设备部署。ollama run qwen3.5:2b窗口使用选择相关模型并轻量使用。可在设置中调整上下文长度4k~256k控制模型记忆对话内容的长度适配不同场景需求。

更多文章