第2章Ollama本地部署大模型Qwen3上一章我们已经通过阿里云百炼把“大模型调用”这件事跑通了。那接下来一个很自然的问题就来了如果我不想每次都依赖云端接口能不能把模型直接放到自己电脑上跑答案是可以。而且现在这件事的门槛已经比很多人想象中低得多。对于刚入门大模型开发的人来说本地部署最大的吸引力通常不是“极致性能”而是另外几件更实在的事体验更直接开箱就能试不依赖外部接口学习成本更低适合做本地实验、提示词调试和原型验证能更直观地理解“模型运行”到底是怎么回事如果你想真正拥有一个“随时可用、就在自己机器上”的大模型环境那么 Ollama 是一个非常好的起点。这一章我们就用 Ollama 把 Qwen3 跑起来。先认识一下 OllamaOllama 是一个用于在本地运行、管理和分发大模型的开源工具。你可以把它理解成“大模型世界里的轻量级运行器”。它把原本比较麻烦的模型下载、启动和调用过程做了很大程度的简化让我们可以像执行一条普通命令一样把模型拉下来并直接运行。它最大的特点就是上手足够简单。对于初学者来说这一点非常重要。因为很多人并不是卡在“学不会模型原理”而是卡在“环境太复杂、安装太折腾、还没开始就被劝退了”。而 Ollama 的价值恰恰就在于把这些前置门槛尽量压低。简单来说Ollama 适合拿来做这些事在本地快速启动一个可交互的大模型下载并管理不同规格的模型用统一方式体验聊天、调试和后续集成官方网站https://ollama.com/你可以先进入官网了解一下它的整体定位和支持方式。图1Ollama官网首页安装完成后先做一个最小验证安装完 Ollama 之后第一件事不是急着下载模型而是先确认它有没有真正安装成功。最简单的方法就是执行下面这条命令ollama--version如果终端能够正常输出版本号就说明本地运行环境已经准备好了。这个动作虽然简单但很关键因为它能帮我们先排除基础安装问题避免后面把错误都归结到模型本身。很多时候调试效率高不高不取决于你是不是懂很多高级概念而取决于你会不会先把最基础的链路一步一步确认清楚。第一个本地模型Qwen3环境确认没问题后就可以开始拉取并运行模型了。这次我们选择的是qwen3:1.7b。对于入门体验来说这类相对轻量的模型通常更友好下载和启动速度更快对本地机器配置要求相对更低更适合先建立完整的本地运行认知在 Ollama 中运行一个模型可以直接使用下面这条命令ollama run qwen3:1.7b这条命令背后实际上完成了两件事如果本地没有这个模型Ollama 会先自动下载下载完成后会直接进入可交互的对话状态这就是 Ollama 很适合新手的一点。你不需要先理解一大堆复杂参数也不需要自己手动拼接繁琐流程一条命令就能把“下载模型”和“启动模型”串起来。跑起来之后你会得到什么当模型成功启动后你就可以直接在终端里和它对话了。这一步的意义其实远不只是“我能聊天了”。它更重要的价值在于你第一次真正拥有了一个运行在本地设备上的大模型。这个模型不再只是网页上的某个黑盒服务而是一个你可以亲自启动、亲自交互、亲自观察行为的本地能力模块。这会给学习带来非常大的变化。因为从这一刻开始你思考问题的方式会慢慢变成这个模型在我机器上是怎么跑起来的不同参数规格的模型有什么差异本地模型和云端模型在体验上有什么不同后面我能不能把它接到自己的程序里这些问题才是我们真正进入大模型工程实践的开始。图2Ollama运行Qwen3的终端示例为什么本地部署值得你亲手做一次很多人会觉得本地部署只是“极客玩法”真正做应用还是直接调云端接口更方便。这句话并不算错但并不完整。云端模型和本地模型其实适合的是不同阶段、不同目标如果你追求更强能力、更稳定的线上服务云端模型通常更合适如果你想快速理解模型运行方式、做本地实验、降低试错门槛本地部署非常有价值尤其在学习阶段本地部署最大的意义并不是替代云而是帮你建立更完整的认知。你会开始明白大模型不是只有“调用接口”这一种使用方式。除了 API它也可以作为一个真正运行在本地环境中的组件被你控制、被你观察、被你整合进自己的工具链中。写在最后如果说上一章解决的是“我怎么调用一个大模型”那么这一章解决的就是“我怎么在自己的电脑上真正跑起一个大模型”。Ollama 把本地部署这件原本看起来有点门槛的事情变成了一条相对平滑的上手路径。而 Qwen3则给了我们一个很适合入门体验的本地模型选择。当你亲手执行完ollama run qwen3:1.7b并在终端里看到模型开始响应时你会对“大模型就在我本机上运行”这件事有一个非常直观的感受。接下来我们就不只是“会调用”也不只是“会部署”而是可以继续往更实战的方向推进把本地模型、云端模型、提示词调试和应用开发真正串起来。