ControlNet推出Reference(参考)控制类型也有一段时间了,最近体验了一下,被他的强大的效果震惊到了,之前一直想生成同一主体系列图片,需要Lora炼丹,这个不仅需要电脑有一定的配置,还要处理大量素材图片耗时耗力,现在Reference却可以调调参数,测测数据,毫不费力的满足你需求!
下面来了解一下这个Reference模式,到底有多强大呢?
1、先看一下官方对Reference(参考)的介绍:
Now we have a reference-only preprocessor that does not require any control models. It can guide the diffusion directly using images as references.
翻译:现在我们有一个 reference-only预处理,它不需要任何控制模型即可实现直接使用一张图片作为参考来引导扩散。
2、再来看看Reference(参考)界面:
预处理器:
reference_adain:仅参考输入图,自适应实例规范
reference_adain+attn:仅参考输入图,自适应实例规范+Attention链接
reference_only:仅参考输入图,今天主要讲这个预处理器。
控制权重:控制模型对生成图片的影响的程度。
引导时机:控制模型介入的时间。
引导终止时机:控制模型终止的时间。
Style Fidelity(仅用于均衡模式):风格保真度,
3、来个可爱的猫咪案例演示:
在网上找一张背景干净,主体清晰的图片,这里找的一个猫,将图片改为512x512px尺寸,
放入controlnet,启用reference。
选择预处理器:reference_only。
style fidelity:设置为1。
**模型:**realisticVisionV20。
**设置提示词:**就一个词,一只行走的猫。
正向:
(best quality),((masterpiece)),(highres),original,extremely detailed 8K wallpaper,(an extremely delicate and beautiful),
a walking cat,
反向:
easynegative,ng_deepnegative_v1_75t,(worst quality:2),(low quality:2),(normal quality:2),lowres,bad anatomy,bad hands,normal quality,((monochrome)),((grayscale)),((watermark)),
其他的不用管,点击生成图片。
可以看出与原素材底图作比较,除了一细节的差别,与原图匹配度高达80%,在降低随机性,提高抽卡中奖率上面还是有比较大的效果的,在生成足够多的样本后,我们可以挑选一些匹配度更高的图片。
下面看下取消reference的效果:
AI自由发挥,风格基本难以掌控。
4、再来一个靓妹演示案例来测试,据说这样看的人会多些:
**模型:**realisticVisionV20
正向:
photo of woman,wispy blonde hair,perfect eyes,simple long knitted tight-fitting shift dress,(detailed face:1.2),(flat chest:1.1),slight smile,walking,outdoor,nature,beautiful,wild flowers,natural skin,dusk,orange clouds,
8k uhd,high quality,ray tracing,(best quality),((masterpiece)),(highres),
反向:
multiple breasts,(mutated hands and fingers:1.5 ),(long body :1.3),(mutation, poorly drawn :1.2),black-white,bad anatomy,liquid body,liquid tongue,disfigured,malformed,mutated,anatomical nonsense,text font ui,error,malformed hands,long neck,blurred,lowers,lowres,bad anatomy,bad proportions,bad shadow,uncoordinated body,unnatural body,fused breasts,bad breasts,huge breasts,poorly drawn breasts,extra breasts,liquid breasts,heavy breasts,missing breasts,huge haunch,huge thighs,huge calf,bad hands,fused hand,missing hand,
参数设置:
迭代步数 (Steps):25
采样方法:DPM++ SDE Karras
重绘幅度:0.6
其他默认,点击生图。
然后,用这张图作为底图,做一些变化,先把底图放到reference模式里面,操作步骤和参数同上,
然后修改正向提示词:
功能1测试:更换衣服
正向词:
photo of woman,wispy blonde hair,perfect eyes,a sexy swimsuit,(detailed face:1.2),(flat chest:1.1),slight smile,walking,outdoor,nature,beautiful,wild flowers,natural skin,dusk,orange clouds,
8k uhd,high quality,ray tracing,(best quality),((masterpiece)),(highres),
**功能2测试:更换背景,**这边直接用泳装的正向提示词
正向词:
photo of woman,wispy blonde hair,perfect eyes,a sexy swimsuit,(detailed face:1.2),(flat chest:1.1),slight smile,outdoor,in the swimming pool,beautiful,a bright sky,baiyun,natural skin,
8k uhd,high quality,ray tracing,(best quality),((masterpiece)),(highres),
可以发现,它保持了底图的服装面料和主体的状态,效果堪比Lora。如果要更多更精确的图片可以批量生成,做挑选会更棒!
**
**
**功能3测试:更换动作,**这里要用到openpose控制模型搭配
正向词:
photo of woman,wispy blonde hair,perfect eyes,simple long knitted tight-fitting shift dress,(detailed face:1.2),(flat chest:1.1),slight smile,outdoor,nature,beautiful,wild flowers,natural skin,dusk,
8k uhd,high quality,ray tracing,(best quality),((masterpiece)),(highres),
场景的细节还是有点瑕疵,不过大体上还是与原底图匹配,如果觉得差别有点大,我们可以通过调整prompt提示词进行修改。
另外还可以调整controlnet中,两个单元的引导介入时机和退出时机,比如这里,AI重绘基本是先根据openpose骨架图,确定任务的姿态,然后再通过稳定扩散分布进行生成,那么可以把reference介入时机可以调后一点,效果可能会更吻合。
功能4测试:改变画风,
基于上面的图,做个2.5次元的看看吧,放到reference,换一个模型:Anything_V5,其他参数不变,测试看看。
风格来说,还是比较稳定的,概率也比较大,可以通过调整提示词,生成更大量的图片,来进行筛选。想生成2次元的同学也是可以自己做一下测试,大家一起交流。
5、现在测试一下二次元帅哥,效果如何。
先在网上找一张图片,**
**
然后,用这张图作为底图,做一些变化,先把底图放到reference模式里面,操作步骤和参数同上,
换模型为Anything_V5等,调整提示词,
正向词:
a boy,wearing clothes,
(best quality),((masterpiece)),(highres),(an extremely delicate and beautiful),original,extremely detailed wallpaper,
反向词:
(naked:1.3),(multi-handed:1.4),worstquality,low quality,normal quality,jpegartifacts,signature,watermark,username,blurry,bad feet,bad_anatomy,bad_feet,bad_hands,bad_perspective,bad_proportions,error,extra_arms,extra_ears,extra_eyes,extra_mouth,feet_out_of_frame,foot_out_of_frame,greyscale,(head_out_of_frame:1.3),out-of-frame_censoring,out_of_frame,wrong_feet,
其他参数默认即可,点击生图
这里的关键词只写了:a boy,wearing clothes,一个穿着衣服的男孩,如果需要做更多精细化的调整,可以通过调整提示词来匹配,这样会更接近理想的效果。
6、总结:
reference对图片的扩散分布引导的效果还是比较不错的,如果是人像,搭配上roop插件,在保持画风等效果一致上面,其实还是很不错的,有炼丹Lora的同学,也可以将二者进行结合,相信可以更精准的控制图片的重绘导向。在电商的产品的应用上,也可以做一些尝试,保持产品统一,产品的场景图的风格的统一等等,上面也只是做一些基础的尝试,一个功能的革新,有时候是可以升级一次设计思维。
关于AI绘画技术储备
学好 AI绘画 不论是就业还是做副业赚钱都不错,但要学会 AI绘画 还是要有一个学习规划。最后大家分享一份全套的 AI绘画 学习资料,给那些想学习 AI绘画 的小伙伴们一点帮助!
对于0基础小白入门:
如果你是零基础小白,想快速入门AI绘画是可以考虑的。
一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以找到适合自己的学习方案
包括:stable diffusion安装包、stable diffusion0基础入门全套PDF,视频学习教程。带你从零基础系统性的学好AI绘画!
需要的可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

1.stable diffusion安装包 (全套教程文末领取哈)
随着技术的迭代,目前 Stable Diffusion 已经能够生成非常艺术化的图片了,完全有赶超人类的架势,已经有不少工作被这类服务替代,比如制作一个 logo 图片,画一张虚拟老婆照片,画质堪比相机。
最新 Stable Diffusion 除了有win多个版本,就算说底端的显卡也能玩了哦!此外还带来了Mac版本,仅支持macOS 12.3或更高版本。
2.stable diffusion视频合集
我们在学习的时候,往往书籍代码难以理解,阅读困难,这时候视频教程教程是就很适合了,生动形象加上案例实战,一步步带你入门stable diffusion,科学有趣才能更方便的学习下去。
3.stable diffusion模型下载
stable diffusion往往一开始使用时图片等无法达到理想的生成效果,这时则需要通过使用大量训练数据,调整模型的超参数(如学习率、训练轮数、模型大小等),可以使得模型更好地适应数据集,并生成更加真实、准确、高质量的图像。
4.stable diffusion提示词
提示词是构建由文本到图像模型解释和理解的单词的过程。可以把它理解为你告诉 AI 模型要画什么而需要说的语言,整个SD学习过程中都离不开这本提示词手册。
5.AIGC视频教程合集
观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
实战案例
纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
这份完整版的学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
