Ollama 完全指南:本地部署大模型的神器
一、什么是 OllamaOllama 是一个开源的大模型管理工具它可以帮助你在本地轻松运行、管理和定制各种大型语言模型LLMs。无论是进行文本生成、代码编写还是智能对话Ollama 都提供了简洁的命令行界面和丰富的功能。核心功能本地化部署模型无需联网支持模型下载、管理、运行可对模型进行微调和预训练提供 REST API 供其他程序调用跨平台支持Windows、macOS、Linux二、安装 Ollama方式一官网下载推荐访问ollama.com下载对应系统的安装包双击安装即可。方式二使用 curl 脚本macOS/Linuxbashcurl -fsSL https://ollama.com/install.sh | sh方式三HomebrewmacOSbashbrew install ollama安装完成后在终端输入ollama --version验证是否成功。三、常用命令详解附截图指南以下每个命令我都会说明如何操作并给出截图示例。你可以实际操作后截图保存作为学习笔记。1. 运行模型ollama run作用启动一个模型如果本地没有则自动下载。语法ollama run 模型名截图示例执行命令前终端显示无该模型。执行命令后开始下载模型并进入交互式对话界面。bashollama run qwen2:0.5b2. 查看模型信息ollama show作用显示模型的详细信息如参数数量、模板、系统提示等。语法ollama show 模型名bashollama show qwen2:0.5b截图应显示模型元数据如架构、参数量、上下文长度等3. 下载模型ollama pull作用从远程仓库下载模型到本地支持断点续传。语法ollama pull 模型名bashollama pull llama3.2:3b4. 查看当前运行的模型ollama ps作用列出当前正在运行的模型进程。bashollama ps5. 删除模型ollama rm作用从本地删除指定的模型文件。bashollama rm qwen2:0.5b6. 列出本地模型ollama list或ollama ls作用显示所有已下载到本地的模型。bashollama list # 或 ollama ls截图显示模型名称、ID、大小、修改时间等7. 退出交互模式/bye作用在 Ollama 的交互式对话界面中退出程序。bash/bye截图显示输入/bye后退出到终端提示符8. 显示模型信息同show/show或/show info作用在交互式会话中显示当前加载的模型信息。bash/show # 或 /show info截图显示模型参数、系统提示等9. 设置输出格式/set format json和/set noformat作用控制输出是否为 JSON 格式便于其他程序解析。bash/set format json # 启用 JSON 输出 /set noformat # 恢复普通文本输出10. 修改模型参数/set作用在交互式会话中修改模型的运行时参数如温度、top_p 等。bash/set parameter temperature 0.7截图显示参数修改成功的提示11. 清除上下文/clear作用清空当前会话的对话历史相当于重置聊天。bash/clear截图显示清除后对话历史为空12. 切换模型/load作用在交互式会话中切换到另一个已下载的模型。bash/load qwen2:0.5b截图显示切换后模型加载成功的提示13. 保存当前对话/save作用将当前会话的对话历史保存到文件。bash/save my_conversation.txt截图显示保存成功的提示14. 查看帮助/?作用显示所有可用命令的帮助信息。bash/?截图显示命令列表和简要说明四、Ollama 快捷键提高效率的秘诀在 Ollama 的交互式对话界面中可以使用以下快捷键来提升操作效率使用技巧在输入长 prompt 时Ctrl A和Ctrl E可以快速定位到行首行尾。如果需要修正拼写错误Ctrl B和Ctrl F可以逐词移动光标。当模型输出内容过多时按Ctrl C可以立即停止生成避免等待。要退出对话直接输入/bye更直观但Ctrl D在无输入时也能快速退出。五、注意事项模型名称格式通常是作者/模型名:标签如llama3.2:3b、deepseek-r1:7b。首次运行模型会自动下载请确保网络通畅。使用--insecure参数可以跳过 SSL 验证不推荐用于生产环境。如果遇到ggml_metal_library_init错误通常是 macOS 版本过旧或 Metal 驱动不兼容请升级系统或使用 CPU 模式。六、总结Ollama 让本地运行大模型变得异常简单无需复杂的配置和依赖管理。通过上述命令你可以轻松完成模型的下载、运行、切换和管理。建议初学者从qwen2:0.5b或llama3.2:3b等小模型开始尝试熟悉后再挑战更大的模型。如果你在 M5 芯片的 Mac 上遇到问题记得升级到 macOS Tahoe 26.4.1 或更高版本这能解决大部分底层兼容性故障。附快速命令速查表命令功能ollama run 模型名运行模型自动下载ollama show 模型名查看模型详情ollama pull 模型名下载模型ollama ps查看运行中的模型ollama rm 模型名删除模型ollama list/ollama ls列出本地模型/bye退出交互模式/show//show info显示当前模型信息/set format json设置 JSON 输出/set noformat取消 JSON 输出/set修改模型参数/clear清除对话历史/load切换模型/save保存对话到文件/?查看帮助附快捷键速查表快捷键功能描述Ctrl A移动光标到行首Ctrl E移动光标到行尾Ctrl B向左移动一个单词Ctrl F向右移动一个单词Ctrl K删除光标位置到行尾的所有内容Ctrl U删除光标位置到行首的所有内容Ctrl W删除光标前的一个单词Ctrl L清屏类似clear命令Ctrl C停止当前正在生成的输出中断推理Ctrl D退出对话仅在没有任何输入时生效希望这篇指南对你有帮助如果有任何问题欢迎在评论区留言讨论。