1. 环境准备与离线资源获取在开始部署之前我们需要先确认服务器的硬件架构和准备好所有必要的离线安装包。很多朋友第一次在离线环境部署时容易忽略这个步骤结果跑到一半发现架构不匹配白白浪费大量时间。首先通过lscpu命令查看CPU架构lscpu | grep Architecture常见的输出有两种x86_64表示AMD/Intel的64位处理器aarch64表示ARM架构处理器这个区别非常重要因为Ollama的安装包和后续的模型文件都需要对应架构的版本。我去年就踩过这个坑给ARM服务器装了x86的包折腾了半天才发现问题。接下来需要准备这些离线资源Ollama二进制包对应架构版本DeepSeek-R1:1.5B模型文件依赖库如果有建议在能联网的机器上先下载好这些资源Ollama官方发布页https://github.com/ollama/ollama/releasesDeepSeek模型可以通过ollama pull deepseek-r1:1.5b获取这里有个小技巧模型文件默认会下载到~/.ollama/models目录下包含两个关键文件manifest.json模型元数据模型数据文件通常较大2. Ollama离线安装详解拿到安装包后我们需要在目标服务器上完成Ollama的部署。这个过程看似简单但在离线环境下有几个关键点需要注意。2.1 解压与路径设置建议在存储空间充足的目录操作比如/home或/optmkdir -p /opt/ollama cd /opt/ollama tar -xzf ollama-linux-amd64.tgz解压后会得到bin目录里面就是Ollama的可执行文件。但直接运行会提示命令不存在需要设置环境变量。我推荐两种方式方法一创建软链接sudo ln -s /opt/ollama/bin/ollama /usr/local/bin/ollama方法二修改PATH更持久echo export PATH$PATH:/opt/ollama/bin ~/.bashrc source ~/.bashrc验证是否生效which ollama # 应该输出/usr/local/bin/ollama或/opt/ollama/bin/ollama2.2 配置系统服务为了让Ollama能随系统启动我们需要配置systemd服务。创建配置文件sudo vim /etc/systemd/system/ollama.service写入以下内容注意根据实际路径调整[Unit] DescriptionOllama Service Afternetwork-online.target [Service] ExecStart/opt/ollama/bin/ollama serve Userroot Groupollama Restartalways RestartSec3 EnvironmentOLLAMA_HOST0.0.0.0:11434 [Install] WantedBymulti-user.target设置权限并启动服务sudo chmod 644 /etc/systemd/system/ollama.service sudo systemctl daemon-reload sudo systemctl enable --now ollama检查服务状态sudo systemctl status ollama # 应该看到active (running)状态3. 模型部署实战3.1 离线导入模型在联网机器上获取的模型文件需要复制到离线服务器的特定目录。关键路径是~/.ollama/models/复制完成后需要确保文件权限正确chown -R $USER:$USER ~/.ollama验证模型是否识别ollama list # 应该能看到deepseek-r1:1.5b3.2 运行与测试启动模型交互ollama run deepseek-r1:1.5b第一次运行时会自动完成最后的配置。成功后你会看到模型提示符可以输入测试问题验证。如果想作为API服务运行可以这样启动ollama serve 然后通过curl测试curl http://localhost:11434/api/generate -d { model: deepseek-r1:1.5b, prompt: 你好 }4. 常见问题排查在实际部署中可能会遇到这些问题端口占用问题如果11434端口被占用可以修改服务配置中的OLLAMA_HOST环境变量比如改为11435。模型加载失败检查模型文件是否完整特别是manifest.json文件。我曾经遇到过文件传输不完整导致的问题可以通过md5sum对比校验。权限问题如果遇到权限拒绝错误可以尝试sudo chmod -R 755 ~/.ollama内存不足1.5B模型大约需要4GB内存如果内存不足可以尝试OLLAMA_NUM_GPU0 ollama run deepseek-r1:1.5b最后提醒一点在离线环境部署时建议提前准备好所有依赖。有次我在客户现场部署发现缺少libssl.so.1.1结果又花了半天时间找离线安装包。现在我的标准做法是先用ldd检查依赖ldd /opt/ollama/bin/ollama