稳定扩散绘画:LoRA 模型验收
我们每次训练出来的模型,一般都会生成 20-30 个,至于哪个模型符合要求,较为理想呢?
接下来需要对每个 LoRA模型 进行逐一对比测试。
为了测试模型的泛化性,可选择使用一些较为特殊的提示词,看看各个模型对提示词的接收程度:
1woman,Taylor Swift,short hair(短头发),wearing armor(穿着盔甲),in the forest(在森林里),
并且固定种子数,以便于对各个 LoRA 的出图效果对比:
开启「Additional Networks」,在「模型1」中添加任意一个训练出来的 LoRA,权重值设置为 1:
底部的脚本选择「X/Y/Z plot」,x轴类型选择「AddNet Model 1」,点击x轴值输入框右侧的 ???? 按钮加载所有的训练LoRA模型:
点击「生成」,等待生成结果:
上面????展示了15个模型的出图,其中我较为满意的(既能符合提示词,像霉霉,又能保持插画风格),只有03、06、07号模型。
越往后,模型已经开始忽略 盔甲
这个提示词了,而且越来越接近真人模型,缺少插画风格。
我想其中的原因是:随着训练轮次越多,AI已经把素材的特征完全学定型了。
因此,从10轮过后的模型,都可以直接删掉。
再更换其他的提示词,多试几轮,留下出满意的 LoRA 模型以后使用。
我最终选择留下 06、07 两个模型,其他的都可以选择删掉。
今天先分享到这里~
开启实践:SD绘画 | 为你所做的学习过滤
上一篇: Educational Codeforces Round 168 (Rated for Div. 2) D. Maximize the Root
下一篇: 联合金融秋季招聘 2025 内部招聘
推荐阅读
-
稳定扩散绘画:LoRA 模型验收
-
稳定扩散喷涂 | SDXL 模型的优缺点及模型推荐
-
SD(稳定扩散)模型的基本工作数据流
-
在云端运用稳定扩散技术,如何有效分享和储存模型数据
-
人工智能绘画 稳定扩散 关键词 共享
-
稳定扩散 AI 绘画系列 【22】:国风美女写实系列
-
稳定 AI 开源新功能:3D 生成引入视频扩散模型,质量一致性提升,4090 可播放
-
探索基于稳定扩散的智能绘画大型模型
-
OpenAI安全系统负责人:从头构建视频生成扩散模型-[1] Cicek 等,2016. "3D U-Net:Learning Dense Volumetric Segmentation from Sparse Annotation." [2] Ho & Salimans, et al. [2] Ho & Salimans, et al. "Video Diffusion Models."2022 | 网页 [3] Bar-Tal 等人 2024 "Lumiere:用于视频生成的时空扩散模型"。 [4] *s 等人,"作为世界模拟器的视频生成模型"。OpenAI 博客,2024 年。 [5] Zhang 等人,2023 年 "ControlVideo:无需训练的可控文本视频生成。" [6] Khachatryan 等,2023 "Text2Video-Zero:文本到图像扩散模型是零镜头视频生成器"。 [7] Ho 等人 2022 "Imagen Video:利用扩散模型生成高清视频"。 [8] Singer 等人,"Make-A-Video:无需文本-视频数据的文本-视频生成"。2022. [9] Wu 等人,"Tune-A-Video:One-Shot Tuning of Image Diffusion Models for Text-to-Video Generation." ICCV 2023.ICCV 2023。 [10] Blattmann 等人,2023 年,"Align your Latents:利用潜像扩散模型合成高分辨率视频"。 [11] Blattmann 等人,2023 年 "稳定的视频扩散:将潜在视频扩散模型扩展到大型数据集"。 [12] Esser 等人,2023 "利用扩散模型进行结构和内容引导的视频合成"。 [13] Bar-Tal 等人,2024 "Lumiere:用于视频生成的时空扩散模型"。
-
稳定扩散模型全解(包括原理、技术、应用和常见错误)