手把手教学如何用Qwen3-1.7B搭建本地智能助手零代码基础也能搞定你是不是也想过拥有一个属于自己的AI助手它能帮你写邮件、查资料、解答疑问甚至陪你聊天。但一想到要写代码、租服务器、处理复杂的模型部署是不是就望而却步了别担心今天我就带你用阿里最新开源的Qwen3-1.7B模型从零开始搭建一个完全运行在你电脑上的智能助手。整个过程就像安装一个普通软件一样简单不需要你写一行代码也不需要高深的AI知识。无论你是学生、职场人还是对AI好奇的爱好者都能轻松搞定。1. 为什么选择Qwen3-1.7B在开始动手之前我们先简单了解一下为什么Qwen3-1.7B是搭建本地助手的最佳选择。你不需要记住这些技术细节只需要知道它“又快又好又省资源”就够了。它真的很“轻”Qwen3-1.7B是一个只有17亿参数的“小”模型。这意味着它对电脑硬件的要求非常友好。根据官方数据经过优化后它只需要大约4GB的显存就能流畅运行甚至能处理长达3.2万个字的超长对话专业术语叫32K上下文。这意味着你可以和它聊很久它都不会忘记前面说过的话。它有两种“模式”这是它最酷的地方之一。“思考”模式当你问它一个复杂问题比如一道数学题或者需要逻辑推理的问题时它可以开启这个模式。在这个模式下它会把思考的步骤也展示给你看就像一个人在草稿纸上演算一样让你知道答案是怎么来的非常透明。“快速”模式当你只是简单聊聊天、问问天气或者查个资料时可以用这个模式。它会直接给出答案速度更快响应更及时。它完全免费且开源这是阿里巴巴通义千问团队在2025年4月开源的模型你可以免费下载、使用甚至基于它进行二次开发没有任何使用费用或次数限制。简单来说用Qwen3-1.7B你相当于用一台普通家用电脑的配置获得了一个能力不错、反应迅速、还完全私有的AI伙伴。2. 准备工作启动你的AI“沙盒”我们不需要在复杂的电脑环境里折腾一切都在一个准备好的“沙盒”——也就是CSDN星图平台的预置镜像里完成。这个镜像已经帮你安装好了所有需要的软件和环境你只需要点几下就能用。第一步获取并启动镜像访问CSDN星图镜像广场找到名为“Qwen3-1.7B”的镜像。点击“一键部署”或类似的启动按钮。平台可能会让你选择一下资源配置比如用哪种显卡对于Qwen3-1.7B来说选择带4GB以上显存的GPU选项就足够了。等待几分钟系统会自动为你创建好一个包含完整环境的“容器”。当状态显示为“运行中”时就说明你的AI沙盒已经准备好了。第二步进入操作界面镜像启动后你会看到一个访问链接通常是一个网址。点击它就能打开一个名为JupyterLab的网页界面。这个界面看起来有点像文件管理器是我们接下来所有操作的地方。到这里最复杂的部分已经结束了你已经成功了一大半。3. 零代码调用让你的AI助手“活”起来现在我们来到了最关键的一步如何让这个模型开始工作。别怕虽然我们会看到一些代码但你完全不需要理解每一行的含义只需要跟着做“复制-粘贴-运行”这三步。在JupyterLab界面里新建一个Python笔记本通常叫New-Notebook。你会看到一个空白的“代码单元格”。把下面这段代码完整地复制进去from langchain_openai import ChatOpenAI import os # 创建聊天模型对象这里就是连接我们的Qwen3-1.7B chat_model ChatOpenAI( modelQwen3-1.7B, # 指定使用Qwen3-1.7B模型 temperature0.5, # 控制回答的随机性0.1更保守准确0.9更有创意 base_urlhttp://你的容器地址:8000/v1, # 注意这里需要替换 api_keyEMPTY, # 因为是本地服务不需要真正的API密钥 extra_body{ enable_thinking: True, # 开启“思考模式”让模型展示推理过程 return_reasoning: True, }, streamingTrue, # 开启流式输出回答会一个字一个字显示体验更好 )重要提示上面代码中的base_url需要替换成你实际的环境地址。在你的JupyterLab界面查看浏览器地址栏。通常格式是https://gpu-podxxxx-8000.web.gpu.csdn.net。你只需要取https://gpu-podxxxx-8000.web.gpu.csdn.net这一部分然后在后面加上/v1。例如如果地址是https://gpu-pod69523bb78b8ef44ff14daa57-8000.web.gpu.csdn.net那么base_url就应该是https://gpu-pod69523bb78b8ef44ff14daa57-8000.web.gpu.csdn.net/v1。替换好地址后点击这个代码单元格上方的“运行”按钮通常是一个向右的三角形。如果运行成功不会有错误提示这表示你的AI助手引擎已经启动就绪了。4. 开始对话向你的AI助手提问引擎准备好了现在让我们来问它第一个问题。在下一个新的代码单元格里输入以下代码并运行# 向模型提问 response chat_model.invoke(你好请介绍一下你自己。) print(response.content)运行后稍等几秒钟你就能看到Qwen3-1.7B的自我介绍了。它可能会说“你好我是通义千问一个由阿里巴巴开发的大语言模型...” 恭喜你你的第一个本地AI助手已经成功回应你了4.1 体验“思考模式”的魅力还记得我们之前提到的“思考模式”吗我们在创建chat_model时已经通过enable_thinkingTrue打开了它。现在我们来问一个需要点推理的问题看看效果response chat_model.invoke(如果小明有5个苹果他给了小红2个又买了3个现在他一共有几个苹果) print(response.content)运行后你可能会看到类似这样的回答/think小明一开始有5个苹果。 他给了小红2个所以剩下5 - 2 3个苹果。 然后他又买了3个所以现在有3 3 6个苹果。 因此小明现在一共有6个苹果。/think看在/think和/think之间的部分就是模型“内心”的思考过程这让它的回答不再是黑箱变得可追溯、可理解。4.2 切换“快速模式”如果你觉得有些问题不需要看思考过程或者想追求更快的响应速度可以临时关闭思考模式。我们不需要重新创建模型只需在提问时传递一个参数from langchain_core.messages import HumanMessage # 构建一个不启用思考模式的消息 message HumanMessage(content今天北京的天气怎么样) # 在调用时通过 extra_body 覆盖之前的设置关闭思考 response chat_model.invoke([message], extra_body{enable_thinking: False}) print(response.content)你会发现这次的回答会直接给出关于天气的信息模型会根据其知识库回答而不会显示思考过程并且响应速度通常会更快。5. 进阶玩法打造更实用的助手基本的对话已经实现了但我们还可以让它变得更强大、更贴心。5.1 进行多轮对话记住上下文一个好的助手应该能记住我们刚才聊过什么。LangChain帮我们轻松管理对话历史。from langchain_core.messages import HumanMessage, AIMessage # 初始化一个对话历史列表 chat_history [] # 第一轮对话 human_message_1 HumanMessage(content我喜欢科幻电影。) ai_response_1 chat_model.invoke([human_message_1]) chat_history.extend([human_message_1, ai_response_1]) # 把对话记录存起来 print(AI:, ai_response_1.content) # 第二轮对话基于历史 human_message_2 HumanMessage(content能给我推荐几部吗) # 调用时传入完整的对话历史 ai_response_2 chat_model.invoke(chat_history [human_message_2]) chat_history.append(human_message_2) chat_history.append(ai_response_2) print(AI:, ai_response_2.content) # 第三轮它知道我们在聊科幻电影推荐 human_message_3 HumanMessage(content你刚才说的第一部导演是谁) ai_response_3 chat_model.invoke(chat_history [human_message_3]) print(AI:, ai_response_3.content)通过这种方式AI就能在对话中保持连贯性真正像一个“助手”在和你聊天。5.2 调整回答的“性格”Temperature参数在创建chat_model时我们设置了一个temperature0.5的参数。这个值就像AI的“创意开关”调低如0.1AI的回答会更保守、更确定、更重复。适合需要准确事实的场景比如问答。调高如0.9AI的回答会更随机、更有创意、更多样化。适合写故事、想点子。你可以创建两个不同temperature的模型对象试试同一个问题会得到怎样不同的回答。6. 总结与后续探索跟着上面的步骤走下来你已经成功在本地部署并运行了一个属于你自己的Qwen3-1.7B智能助手。我们回顾一下都做了什么零环境配置利用预置镜像跳过了所有复杂的安装和依赖问题。零代码开发通过复制粘贴现成的代码实现了与AI模型的交互。体验核心功能尝试了基础的问答、见证了“思考模式”的推理过程、并学会了管理多轮对话。你的这个AI助手现在可以做什么学习和答疑解答各学科问题辅助学习。写作与翻译帮你起草邮件、写文章大纲、翻译外文。编程助手解释代码、生成简单代码片段。创意伙伴进行头脑风暴生成故事、诗歌等创意文本。私人聊天伙伴进行开放领域的对话。接下来你可以探索什么尝试更多问题问它各种奇怪或专业的问题看看它的能力边界。研究LangChain如果你对代码感兴趣可以深入学习LangChain框架它能帮你把AI模型连接到外部知识库比如你的个人文档、搜索引擎甚至让它操作软件打造真正强大的智能体Agent。探索微调如果你有某个垂直领域比如法律、医疗、金融的文本数据可以在更高配置的机器上对Qwen3-1.7B进行微调让它成为你的专属领域专家。最重要的是你拥有的是一个完全本地化、私密、免费的AI工具。你的所有对话数据都只在你的运行环境中不用担心隐私泄露也不用担心API调用费用。现在就去和你的新AI助手打个招呼开始探索吧获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。