简单起见,又或者是没有N卡或者显卡的配置比较低,可以使用腾讯云HAI直接搭建ComfyUI服务。

入门使用

可以先clear掉当前的workflow,之后右键新建模块。

首先需要新建一个采样器(KSampler),采样器的配置如下:

参数说明
seed0随机种子,控制生成结果的随机性。相同种子会产生相同结果
control_after_generaterandomize生成后种子控制方式:randomize(随机化)、increment(递增)、decrement(递减)、fixed(固定)
steps20采样步数,通常15-30步较为合适。步数越多质量越好但耗时更长
cfg8.000CFG引导强度,控制AI对提示词的遵循程度。范围1-20,推荐7-12
sampler_nameeuler采样算法:euler、euler_a、dpm_2、dpm_2_ancestral、lms、ddim等
schedulernormal调度器类型:normal、karras、exponential、sgm_uniform等
denoise1.000去噪强度,1.0为完全去噪,0.0为不去噪。图生图时可调节此值

采样器的model可以选择Load Checkpoint。
positive是正向提示词,negative是反向提示词,都可以选择CLIPTextEncode。为了方便区分,可以给prompt修改一个有意义的标题。
latent_image可以设置图片的选项,例如EmptyLatentImage。
LATENT可以选择VAE Decode模块,然后可以添加一个图片预览模块。

多图合并,使用同一个背景

输出大小设置为图片背景总大小。
图片正向prompt输出拖拽,然后添加Conditioning(Set Area)节点,在其中设置图片的大小和图片在背景画布中的位置。
使用ConditioningCombine节点,合并多个Conditioning节点,之后把合并节点的输出连接到KSample。
但是,如果是单纯两个prompt直接连到采样器,两张图片会很割裂。解决办法是再新建一个prompt,之后把两张图片的输出和这个prompt使用一个combine进行合并,之后合并结果再输出到采样器。

模型

CheckPoints(检查点模型)是Stable Diffusion的核心基础模型,包含了完整的图像生成能力。它是一个预训练的神经网络模型,决定了生成图像的整体风格、质量和特征。

常用CheckPoints模型类型:

模型类型特点适用场景推荐模型
SD 1.5系列经典基础模型,兼容性好入门学习,插件丰富v1-5-pruned-emaonly.ckpt
SDXL系列更高分辨率,质量更好高质量出图sd_xl_base_1.0.safetensors
写实人像专注真实人物生成人像摄影、写实风格realisticVisionV60B1_v51VAE.safetensors
动漫二次元卡通动漫风格动漫插画、角色设计anything-v5-PrtRE.safetensors
艺术绘画艺术风格强烈创意艺术、概念设计dreamshaper_8.safetensors
建筑风景专注场景和建筑建筑设计、风景画architectureExterior_v40.safetensors

模型文件格式:.ckpt:早期格式,文件较大;.safetensors:更安全的格式,加载速度快,推荐使用;.pt:PyTorch原生格式

使用LoRA模型:在主模型的MODEL节点拖拽,可以新增LoRA节点,之后把LoRA的模型替代主模型连接到采样器上面。同样的,主模型的CLIP需要连接到LoRA上面,之后把正向prompt连接到LoRA就可以了(反向prompt还是连接在CheckPoint的CLIP上面)。

参考

一口气学ComfyUI系列教程