Home

Published

- 8 min read

【最新】Stable Diffusion 3.5安装教程:ComfyUI平台完整指南

img of 【最新】Stable Diffusion 3.5安装教程:ComfyUI平台完整指南

2024年10月22日,StabilityAI正式发布了全新的Stable Diffusion 3.5。这是对此前备受争议的SD3版本的重大升级和改进。本次发布的模型保持开源特性,同时采取了负责任的措施来防止滥用。

Stable Diffusion 3.5三大版本对比

目前SD3.5提供三个不同版本,以满足不同用户需求:

模型版本参数规模分辨率支持核心优势最佳应用场景
SD 3.5 Large80亿100万像素• 最强大的基础模型
• 卓越的图像质量
• 精准的提示词响应
专业级高质量创作
SD 3.5 Large Turbo80亿100万像素• Large版本的优化版
• 仅需4步快速生成
• 保持高质量输出
需要快速迭代的项目
SD 3.5 Medium25亿25-200万像素• 适配普通显卡
• 优化的架构设计
• 更易于定制训练
个人创作和小型商用

授权与使用说明

  • 所有模型权重均可自由定制
  • 年收入100万美元以下可免费商用
  • 遵循StabilityAI社区许可协议
  • 企业用户可查看官方许可页面获取详细信息

本教程将重点介绍如何在ComfyUI平台上安装和使用SD3.5。目前A1111版本尚未支持,ForgeUI团队正在开发中,我们会及时更新教程。

关注 @SD_Tutorial 获取最新更新动态

目录

安装

如果你是新手,你必须在你的机器上安装ComfyUI。老用户需要通过导航到Manager并选择”Update ComfyUI“和”Update All“来更新ComfyUI。我们列出了社区的各种发布版本。你可以根据你的需求和系统配置进行选择。

类型A: StabilityAI的Stable Diffusion 3.5

拥有强大GPU并且只想使用原始模型的用户可以使用这个官方版本。

1. 三种模型变体如下:

stable diffusion 3.5 large

(a) 从StabilityAI的Hugging face下载Stable Diffusion 3.5 Large的模型权重。

stable diffusion3.5 large turbo

(b) 从StabilityAI的Hugging face下载Stable Diffusion 3.5 Large Turbo的模型权重。

download stable diffusion3.5 medium

(c) 从StabilityAI的Hugging face下载Stable Diffusion 3.5 Medium的模型权重。

accept stabilityAI license and agreement

2. 首次下载时,你需要接受他们的许可和协议才能访问他们的存储库。

3. 下载后将它们保存在”ComfyUI/models/checkpoint“文件夹中。

5. 现在,从StabilityAI的Hugging Face下载clip模型(clip_g.safetensors, clip_l.safetensors, 和 t5xxl_fp16.safetensors)并保存在”ComfyUI/models/clip“文件夹中。

由于Stable Diffusion 3.5使用相同的clip模型,如果你是Stable Diffusion 3用户则不需要下载。只需检查所需目录中是否有相应的clip模型即可。

4. 重启ComfyUI使其生效。

类型B: Stable Diffusion 3.5 GGUF量化版本

量化版本在不影响大量图像像素的情况下产生相当好的质量。这对于配备M1/M2芯片的Mac机器来说非常棒。

它消耗较低的GPU并且渲染时间更短。特别是GGUF Loader在GPU上工作以提高VRAM的整体性能。使用T5文本编码器来降低VRAM功耗。

1. 通过在Manager中点击”Update All“来更新ComfyUI。

2. 移动到”ComfyUI/custom_nodes“文件夹。导航到文件夹路径位置并输入”cmd“打开命令提示符。

GGUF Flux用户如果已经安装了这个存储库则不需要重新安装。只需更新即可。移动到”ComfyUI/custom_nodes/ComfyUI-GGUF”文件夹并在命令提示符中输入”git pull”。下载步骤5中提到的SD 3.5量化模型权重并保存到相应文件夹。

3. 然后通过复制并粘贴以下内容到命令提示符来安装和克隆存储库:

    git clone https://github.com/city96/ComfyUI-GGUF.git  

4. 对于便携式用户,移动到”ComfyUI_windows_portable“文件夹。导航到文件夹路径位置并输入”cmd“打开命令提示符。

使用此命令安装依赖项:

    git clone https://github.com/city96/ComfyUI-GGUF ComfyUI/custom\_nodes/ComfyUI-GGUF .\\python\_embeded\\python.exe -s -m pip install -r .\\ComfyUI\\custom\_nodes\\ComfyUI-GGUF\\requirements.txt  

5. 相应存储库中列出了多个模型。下载以下任一预量化模型:

(a) Stable Diffusion 3.5 Large GGUF

(b) Stable Diffusion 3.5 Large Turbo GGUF

(c) Stable Diffusion 3.5 Medium GGUF

将它们保存到”ComfyUI/models/unet“目录。这里,所有的clip模型都已经由CLIP loader处理。所以,不需要下载这个。

但是,如果你想要的话,你可以根据你的GGUF(t5_v1.1-xxl GGUF)模型从Hugging Face下载并保存到”ComfyUI/models/clip“文件夹。

6. 然后重启并刷新ComfyUI使其生效。

工作流程

1. 你可以从StabilityAI的Hugging face下载所有相应的工作流程。

2. 将任何工作流程拖放到ComfyUI。

Model checkpoint loader

3. 从loader节点加载相关的模型checkpoint。

4. 从KSampler节点设置相关配置。

KSampler configuration

StabilityAI推荐的设置:

模型CFGStepsSampler
Stable Diffusion 3.5 Large4.528-40Euler, SGM Uniform
Stable Diffusion 3.5 Large Turbo14Euler, SGM Uniform

我们已经使用推荐设置测试了官方Stable Diffusion 3.5 Large。

使用Stable Diffusion 3.5 Large生成

这是结果。说实话,这个结果不是精心挑选的。这是我们的第一次生成。还不错。但是裙子有点不真实。

参数
提示词portrait , high quality creative photoshoot of a model , black dress, bluish hair, red lipstick, wearing funky sunglasses, Vogue style, fashion photoshoot, professional makeup, uhd
CFG4.5
分辨率1024 x 1024
Steps28
硬件NVIDIA RTX 4090
生成时间22秒

你可以从我们的图像提示生成器获取更多提示词想法,该生成器专门设计用于使用Stable Diffusion模型生成图像。

该模型已经使用NLP(自然语言处理)进行了训练,使用基于clip的模型。因此,你可以使用任何LLM,如Tipo LLM扩展等或基于GPT4的LLM,这将改进并生成类似自然人的提示。

让我们尝试另一个。比如一个带有不同配置的恐怖电影场景。

使用Stable Diffusion 3.5 Large生成

参数
提示词a woman, stands on the roof of a rundown trailer, character with a haunting presence due to her posture, standing in a long dress, gaze locked forward, under ominous weather, realistic, uhd
CFG4.5
分辨率1024 x 1024
Steps40

在这里,结果看起来相当令人满意。提示词遵循度工作得很好。我们的经验是,详细的提示会产生相当不错的结果。

现在,让我们尝试带有人类手指的图像,看看它的表现如何。

使用Stable Diffusion 3.5 Large生成人手图像

使用Stable Diffusion 3.5 Large生成人手图像