openclaw生态Nunchaku FLUX.1-dev:开源模型+ComfyUI+镜像免配置闭环
openclaw生态Nunchaku FLUX.1-dev开源模型ComfyUI镜像免配置闭环想体验最新的开源文生图模型但被复杂的安装配置劝退今天我们来聊聊一个“开箱即用”的解决方案——在ComfyUI中部署和使用Nunchaku FLUX.1-dev模型。这个组合最大的魅力在于它通过预制的镜像和插件将开源模型强大的生成能力与ComfyUI灵活的节点化工作流完美结合为你省去了从零搭建环境的繁琐步骤。简单来说你只需要跟着步骤走就能快速拥有一个功能强大、可高度定制的AI绘画工作站。无论是想生成高清风景、概念艺术还是探索不同的艺术风格这套方案都能让你轻松上手。1. 环境准备与快速上手在开始之前我们先确认一下基础环境确保后续流程顺畅无阻。这就像盖房子前要打好地基一样重要。硬件要求你需要一块支持CUDA的NVIDIA显卡。为了获得流畅的体验特别是生成高分辨率图片时建议显存在24GB以上。如果你的显卡显存较小比如8GB或12GB也不用担心我们可以选择量化版本如FP8或INT4的模型它们对显存的要求会低很多。软件要求你需要准备好Python 3.10或更高版本以及Git环境。PyTorch的版本需要与你的系统和显卡驱动匹配通常选择torch 2.7、2.8或2.9的稳定版本即可。一个关键工具为了后续方便地下载模型我们首先安装一个名为huggingface_hub的Python库。打开你的命令行终端如CMD、PowerShell或终端输入以下命令pip install --upgrade huggingface_hub这个工具能帮助我们直接从Hugging Face模型库拉取文件非常方便。2. 搭建你的AI绘画工作台安装ComfyUI与Nunchaku插件准备好了基础环境接下来就是搭建核心的工作台——ComfyUI并安装能让它运行FLUX.1-dev模型的“扩展程序”。2.1 安装ComfyUI-nunchaku插件我们有两条路径可以到达目的地你可以选择最顺手的一条。方法一使用Comfy-CLI最快捷这个方法通过一个命令行工具来管理ComfyUI及其插件非常适合追求效率的朋友。# 第一步安装ComfyUI的命令行管理工具 pip install comfy-cli # 第二步安装ComfyUI本体如果你已经安装过可以跳过 comfy install # 第三步安装Nunchaku插件 comfy noderegistry-install ComfyUI-nunchaku # 第四步将插件移动到ComfyUI的正确目录 mv ComfyUI-nunchaku ComfyUI/custom_nodes/nunchaku_nodes方法二手动安装更灵活如果你喜欢自己掌控每一个步骤或者网络环境特殊手动安装是更好的选择。# 第一步克隆ComfyUI的官方代码仓库 git clone https://github.com/comfyanonymous/ComfyUI.git cd ComfyUI # 第二步安装ComfyUI运行所需的所有Python依赖包 pip install -r requirements.txt # 第三步进入自定义节点目录克隆Nunchaku插件 cd custom_nodes git clone https://github.com/mit-han-lab/ComfyUI-nunchaku nunchaku_nodes无论哪种方法完成后Nunchaku插件就已经成功安装到你的ComfyUI中了。2.2 安装Nunchaku后端引擎插件是“方向盘”和“仪表盘”我们还需要“发动机”。从Nunchaku v0.3.2版本开始安装后端引擎变得非常简单。依赖安装完成后ComfyUI通常会自动识别并提示你安装后端wheel包或者你可以通过插件自带的install_wheel.json配置文件一键完成安装/更新。3. 获取核心“画笔”下载FLUX.1-dev模型工作台搭建好了现在需要把“画笔”和“颜料”——也就是模型文件——放进去。这一步是关键文件放对位置后面才能正常工作。3.1 配置示例工作流Nunchaku插件自带了一些预设好的工作流模板就像Photoshop的动作脚本能帮助我们快速开始。我们需要把这些模板复制到ComfyUI能识别的位置。# 进入你的ComfyUI主目录 cd ComfyUI # 创建用于存放示例工作流的目录如果不存在的话 mkdir -p user/default/example_workflows # 将插件里的示例工作流复制过去 cp custom_nodes/nunchaku_nodes/example_workflows/* user/default/example_workflows/3.2 下载模型文件我们需要下载两类模型基础FLUX模型和核心的Nunchaku FLUX.1-dev模型。首先下载基础FLUX模型必须安装这些是文本理解和图像解码的基础组件。# 下载文本编码器模型它们负责理解你的文字描述 # 存放目录ComfyUI/models/text_encoders/ hf download comfyanonymous/flux_text_encoders clip_l.safetensors --local-dir models/text_encoders hf download comfyanonymous/flux_text_encoders t5xxl_fp16.safetensors --local-dir models/text_encoders # 下载VAE模型它负责将AI生成的“概念”解码成最终的像素图片 # 存放目录ComfyUI/models/vae/ hf download black-forest-labs/FLUX.1-schnell ae.safetensors --local-dir models/vae然后下载核心的Nunchaku FLUX.1-dev模型这是生成图片的“大脑”。根据你的显卡型号和显存大小需要选择不同的版本Blackwell架构新显卡如RTX 50系列请使用FP4量化版本。其他NVIDIA显卡优先使用INT4量化版本在效果和速度间有较好平衡。显存不足如8G/12G可以选择FP8量化版本它能大幅降低显存占用。这里以最常用的INT4版本为例# 下载FLUX.1-dev主模型 # 存放目录ComfyUI/models/unet/ hf download nunchaku-tech/nunchaku-flux.1-dev svdq-int4_r32-flux.1-dev.safetensors --local-dir models/unet/可选下载LoRA模型风格“滤镜”LoRA是一种小模型可以微调大模型的生成风格。比如你可以加载一个“动漫风格”的LoRA让FLUX.1-dev生成动漫图片。将下载的LoRA模型文件.safetensors格式放入ComfyUI/models/loras/目录即可。Nunchaku社区提供了诸如FLUX.1-Turbo-Alpha加速、Ghibsky Illustration吉卜力风格等有趣的LoRA。4. 启动创作在ComfyUI中生成你的第一张图一切就绪让我们启动ComfyUI开始真正的创作。4.1 启动ComfyUI服务在你的ComfyUI根目录下运行启动命令python main.py看到终端输出服务地址通常是http://127.0.0.1:8188后用浏览器打开这个地址你就进入了ComfyUI的图形化操作界面。4.2 加载Nunchaku专属工作流在ComfyUI网页界面点击右上角的“Load”按钮在弹出的文件选择器中导航到我们之前放置示例工作流的目录ComfyUI/user/default/example_workflows/选择nunchaku-flux.1-dev.json这个文件并加载。这个工作流是专门为FLUX.1-dev优化过的它已经连接好了所有必要的节点并且支持同时加载多个LoRA模型是文生图效果最好的选择。4.3 输入提示词并生成图片工作流加载后你会看到界面上布满了各种节点和连线。别担心我们只需要关注最关键的几个地方。找到提示词输入框通常是一个名为“CLIP Text Encode (Prompt)”的节点上的大文本框。在这里用英文描述你想要生成的画面。FLUX模型对英文提示词的理解通常更好。例如你可以输入A beautiful landscape with mountains and lakes, ultra HD, realistic, 8K一个美丽的山水风景超高清写实风格8K分辨率。调整参数可选你可以调整“采样步数”Steps影响细节和耗时、“分辨率”Width/Height影响图片大小和显存等。如果显存紧张可以适当降低分辨率。点击运行找到界面上的“Queue Prompt”按钮点击它ComfyUI就会开始工作。稍等片刻时间取决于你的显卡和参数设置生成的图片就会出现在右边的预览区域。恭喜你你的第一张由开源FLUX.1-dev模型生成的图片就诞生了5. 实践中的关键要点与技巧为了让你的体验更顺畅这里有几个非常重要的注意事项和实用技巧模型存放位置不能错这是最常见的问题。请务必记住主模型FLUX.1-dev →models/unet/LoRA模型 →models/loras/文本编码器 →models/text_encoders/VAE模型 →models/vae/放错位置会导致ComfyUI找不到模型而报错。根据显存选模型FP16全精度模型效果最好但需要约33GB显存。对于大多数消费级显卡INT4或FP8量化版本是更实际的选择它们能在几乎不损失画质的前提下将显存需求降到17GB甚至更低。注意推理步数如果你使用了FLUX.1-Turbo-Alpha这个LoRA来加速步数可以设得低一些如4-8步。但如果你关闭了这个LoRA请务必将推理步数调到至少20步否则生成的图片质量会大打折扣。节点缺失怎么办如果加载工作流时提示缺少某个自定义节点别慌。ComfyUI有一个强大的“ComfyUI Manager”你可以通过它搜索并一键安装缺失的节点非常方便。6. 总结通过以上步骤我们成功地在ComfyUI中搭建了一个基于开源Nunchaku FLUX.1-dev模型的文生图环境。这套“开源模型 ComfyUI可视化工作流 预配置镜像”的组合真正实现了从环境部署到艺术创作的“闭环”体验。它的优势非常明显免去了复杂的源码编译和环境配置通过图形界面降低了使用门槛同时保留了ComfyUI节点化工作流强大的可定制性和扩展性。你可以在此基础上轻松尝试不同的LoRA风格模型调整各种采样参数甚至连接其他AI功能节点构建属于你自己的AI创作流水线。现在你已经掌握了从零开始部署到生成第一张图片的全过程。接下来就是发挥你创造力的时候了。多尝试不同的提示词探索各种LoRA的效果你很快就能用这个强大的工具创造出令人惊叹的视觉作品。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。