简单起见,又或者是没有N卡或者显卡的配置比较低,可以使用腾讯云HAI直接搭建ComfyUI服务。
入门使用
可以先clear掉当前的workflow,之后右键新建模块。
首先需要新建一个采样器(KSampler),采样器的配置如下:
参数 | 值 | 说明 |
---|---|---|
seed | 0 | 随机种子,控制生成结果的随机性。相同种子会产生相同结果 |
control_after_generate | randomize | 生成后种子控制方式:randomize(随机化)、increment(递增)、decrement(递减)、fixed(固定) |
steps | 20 | 采样步数,通常15-30步较为合适。步数越多质量越好但耗时更长 |
cfg | 8.000 | CFG引导强度,控制AI对提示词的遵循程度。范围1-20,推荐7-12 |
sampler_name | euler | 采样算法:euler、euler_a、dpm_2、dpm_2_ancestral、lms、ddim等 |
scheduler | normal | 调度器类型:normal、karras、exponential、sgm_uniform等 |
denoise | 1.000 | 去噪强度,1.0为完全去噪,0.0为不去噪。图生图时可调节此值 |
采样器的model可以选择Load Checkpoint。
positive是正向提示词,negative是反向提示词,都可以选择CLIPTextEncode。为了方便区分,可以给prompt修改一个有意义的标题。
latent_image可以设置图片的选项,例如EmptyLatentImage。
LATENT可以选择VAE Decode模块,然后可以添加一个图片预览模块。
多图合并,使用同一个背景
输出大小设置为图片背景总大小。
图片正向prompt输出拖拽,然后添加Conditioning(Set Area)节点,在其中设置图片的大小和图片在背景画布中的位置。
使用ConditioningCombine节点,合并多个Conditioning节点,之后把合并节点的输出连接到KSample。
但是,如果是单纯两个prompt直接连到采样器,两张图片会很割裂。解决办法是再新建一个prompt,之后把两张图片的输出和这个prompt使用一个combine进行合并,之后合并结果再输出到采样器。
模型
CheckPoints(检查点模型)是Stable Diffusion的核心基础模型,包含了完整的图像生成能力。它是一个预训练的神经网络模型,决定了生成图像的整体风格、质量和特征。
常用CheckPoints模型类型:
模型类型 | 特点 | 适用场景 | 推荐模型 |
---|---|---|---|
SD 1.5系列 | 经典基础模型,兼容性好 | 入门学习,插件丰富 | v1-5-pruned-emaonly.ckpt |
SDXL系列 | 更高分辨率,质量更好 | 高质量出图 | sd_xl_base_1.0.safetensors |
写实人像 | 专注真实人物生成 | 人像摄影、写实风格 | realisticVisionV60B1_v51VAE.safetensors |
动漫二次元 | 卡通动漫风格 | 动漫插画、角色设计 | anything-v5-PrtRE.safetensors |
艺术绘画 | 艺术风格强烈 | 创意艺术、概念设计 | dreamshaper_8.safetensors |
建筑风景 | 专注场景和建筑 | 建筑设计、风景画 | architectureExterior_v40.safetensors |
模型文件格式:.ckpt
:早期格式,文件较大;.safetensors
:更安全的格式,加载速度快,推荐使用;.pt
:PyTorch原生格式
使用LoRA模型:在主模型的MODEL节点拖拽,可以新增LoRA节点,之后把LoRA的模型替代主模型连接到采样器上面。同样的,主模型的CLIP需要连接到LoRA上面,之后把正向prompt连接到LoRA就可以了(反向prompt还是连接在CheckPoint的CLIP上面)。