Stable Diffusion Webui 常用模型概述(二)

这是关于 Stable Diffusion Webui 常用模型的简要概述,包括 fantasy-world、pony diffusion、Openjourney v4、dosmix、meinamix、seek.art MEGA、Pastel Boys 和 AnyLoRA 等模型的功能介绍和用法说明。
Satyam_SSJ10/fantasy-world 模型

Dpepteahand3
模型进行微调的,使用了一些概念艺术家的艺术作品进行了微调;
2.艺术家花了2周以上的时间收集艺术作品和人工裁剪其中的一些作品。他必须手动裁剪一些作品。
3.生成的图像上会显示 Dpepteahand3
模型的名字,但这无需在意
AstraliteHeart/pony-diffusion-v4 模型
AstraliteHeart/pony-diffusion-v4。
pony-diffusion是一种经过微调的潜在文本到图像的扩散模型,它经过高质量的小马、毛绒和其他非照片实ism图像的条件化训练。该模型最初用于微调SD模型,后者是一种在单张ImageNet图像上训练的潜在图像扩散模型。
此检查点使用5.0e-6的学习率进行了15轮微调,使用约300万个小马、毛绒和其他卡通图像的文本图像对(使用derpibooru、e621和danbooru的元数据)。
与pony-diffusion-v3
相比,使用次要CLIP通常是最佳选择,但仍推荐尝试CLIP跳过1和2。建议在提示中添加derpibooru_p_95
,在否定提示中添加derpibooru_p_low
以改进生成的小马图像质量。
prompthero/openjourney-v4 | Openjourney v4 模型

Openjourney v4
训练模型使用了12.4万张图片,进行了12400步和4个epoch的训练,总训练时间为32小时。
新的版本不再需要使用mdjrny-v4 style
指令。本模型支持多个空间风格,例如会议室风格、办公室风格、仓库风格等。
此模型通过Stable Diffusion训练,版本为1.5。更多关于此模型的 Prompts
DiaryOfSta/dosmix 模型

Default prompt: best quality, masterpiece default negative prompt: (low quality, worst quality:1.4)
应用 VAE。kl-f8-anime2
或 vae-ft-mse-840000-ema-pruned
,您将获得更好的颜色结果。
修复降噪 0.5,放大 2 倍。 如果您不放大修复,您可能无法得到预期的结果。
建议使用上半身、牛仔镜头等提示
Meina/meinamix 模型

Meina/meinamix. 此模型为合并模型包含:MeinaMix V1~6、MeinaPastel V3、MeinaHentai V2、Night Sky YOZORA Style Model、PastelMix 和 Facebomb,没有确切的配方,因为作者做了多个使用具有多个设置的块加权合并进行混合,并保留每个合并的更好版本。
推荐参数:
Recommended parameters: Sampler: Euler a: 40
60 steps. Sampler: DPM++ SDE Karras: 3060 steps. CFG Scale: 7. Resolutions: 512x768, 512x1024 for Portrait! Resolutions: 768x512, 1024x512, 1536x512 for Landscape! Hires.fix: R-ESRGAN 4x+Anime6b, with 10 steps at 0.1 up to 0.3 denoising. Clip Skip: 2. Negatives Prompts: (worst quality:2, low quality:2), (zombie, sketch, interlocked fingers, comic)
coreco/seekart-mega|seek.art MEGA 模型

coreco/seekart-mega,seek.art MEGA是一个通用“什么都能做”的模型,在几十种风格上明显优于1.5版。由Coreco在seek.art创建.
关于该模型,此模型在SD 1.5的基础上训练了近5万高质量数字艺术品和照片。没有合并或混合。
人像样本图像的设置:
1.使用640px
以上的分辨率
2.使用vae-ft-mse-840000-ema VAE
3.使用否定词来省略不需要的风格。这对更真实的输出效果很好:bad anime crayon scribble
4.在您的提示中要尽量具体。
5.Auto1111 动态CFG阈值扩展是惊人的,与此模型sd-dynamic-thresholding
配合得很好。遵循推荐的高级设置
bodlo/pastelboys2d | Pastel Boys 模型

bodlo/pastelboys2d,Pastel Boys 2nd
版本具有更亮的颜色和更详细的背景,但手指形状需要改进。总的来说,是一款适合画各种男人的模型。
推荐设置:
1.Sampling method : Eular a / DPM++ SDE Karras
2.Clip skip : 2
3.Hires.fix upscaler : R-ESRGAN 4x+Anime6B
4.CFG Scale : 7~9
5.VAE : vae-ft-mse-840000-ema-pruned / kl-f8-anime2
Lykon/anylora | AnyLoRA 模型

Lykon/anylora AnyLoRA
是一个检查点模型,用于确保我未来的LoRA训练与更新的模型兼容,并获得风格足够中性的模型,以在任何LoRA风格中获得准确的风格。与NAI相比,在此模型上训练效果更好,所以最终您可能需要调整权重或偏移量(我怀疑这是因为NAI现在在较新模型中被大大稀释)。我通常会发现0.65的权重效果很好,之后我会将其偏移到1。
这对推理(特别是与风格)非常有用,即使我主要是为训练而制作的。它最终被证明非常适用于生成图片,现在它是我的首选动漫模型。它也吃的显存非常少。总之 AnyLoRA是一个用于LoRA训练和推理的轻量级动漫生成模型,具有良好的性能和较小的显存占用,适用于 Colab 和本地环境。
更多文章








