Stable Diffusion怎么用?本地AI绘图工具安装使用教程

维护咨询 大模型部署 问题解决 技能定制 大模型训练

站长交流微信: aixbwz

Stable Diffusion怎么用?本地AI绘图工具安装使用教程

一、Stable Diffusion是什么

Stable Diffusion(中文常译为“稳定扩散”)是一款基于扩散模型(Diffusion Model)的开源本地AI绘图工具。它由慕尼黑工业大学的CompVis团队研发,并在GitHub上以Apache‑2.0许可证公开源码。与传统的云端AI绘图服务不同,Stable Diffusion可以完全在自己的电脑上运行,用户无需将数据上传到服务器,从而更好地保护隐私并且能够自由地对模型进行微调和二次开发。

Stable Diffusion通过“噪声到图像”的过程,从随机噪声开始逐步去噪,最终生成符合提示词(Prompt)的图像。模型本身是一个约4GB的Checkpoint文件,配合轻量的Web界面(常见的有AUTOMATIC1111的WebUI),即可实现“一键生成”。由于模型和代码全部开源,用户可以自行更换底层的扩散模型、采样器、ControlNet等插件,极大提升了可玩性和定制化空间。

二、Stable Diffusion 与 Midjourney 的区别

虽然Midjourney同样是热门的AI绘图工具,但两者在运营模式、使用成本以及可定制性上存在显著差异:

  • 费用:Midjourney采用付费订阅制,用户需要在Discord平台上购买会员才能使用高质量模型;Stable Diffusion本身免费,用户只需承担本地硬件(显卡、CPU、内存)的购买成本。
  • 运行方式:Midjourney是基于云端的API服务,所有绘图请求均在远程服务器完成;Stable Diffusion则是本地运行,数据不离开用户的电脑。
  • 模型可自定义:Stable Diffusion的Checkpoint文件完全开放,用户可以自由下载不同的模型权重(如写实、动漫、二次元等),甚至自行训练专属风格;Midjourney的模型更新由官方统一控制,用户只能通过官方提供的风格参数进行微调。
  • 插件生态:Stable Diffusion拥有丰富的社区插件,例如ControlNet、LoRA、Embedding等,可以实现姿势控制、局部编辑、风格迁移等功能;Midjourney的插件生态相对封闭,扩展能力有限。
  • 硬件需求:Stable Diffusion对显卡要求较高(推荐8GB以上显存),但只需一次性投入;Midjourney的算力由平台提供,用户无需担心硬件配置。

综上所述,如果你追求免费、隐私保护以及高度自定义,Stable Diffusion是更合适的选择;如果只想快速产出高质量图片且不关心硬件投入,Midjourney仍是便利的云端方案。

三、安装 Stable Diffusion——推荐使用秋叶整合包

1. 环境要求

  • 操作系统:Windows 10/11(推荐),Linux、macOS 亦可(但社区资源以Windows为主)。
  • 显卡:NVIDIA GPU,显存 ≥ 6 GB(8 GB 以上更佳),支持CUDA 11.8 以上。
  • 硬盘空间:至少 30 GB 可用空间(模型文件+缓存)。
  • 内存:建议 16 GB 以上。
  • Python:3.10.x(秋叶整合包已自带,无需自行安装)。

2. 下载秋叶整合包

秋叶(AutumnLeaf)整合包是中文社区对 AUTOMATIC1111 WebUI 的一次封装,包含了运行所需的所有依赖(如 Python、PyTorch、xformers),以及预优化的启动脚本,省去手动配置环境的繁琐步骤。

官方下载链接(GitHub Releases)如下:

https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/latest

在该页面找到 “stable-diffusion-webui-windows.zip”(或对应的压缩包)并点击下载。下载完毕后,解压到任意目录即可。

3. 安装步骤(Windows 示例)

  1. 解压下载的压缩包,得到 stable-diffusion-webui 文件夹。
  2. 打开文件夹,找到 webui-user.bat(Windows 启动脚本),双击运行。
  3. 首次启动会自动下载模型文件(约 4 GB),请确保网络通畅。若下载速度慢,可使用代理或提前手动下载模型文件放入 models/Stable-diffusion 目录。
  4. 启动成功后,浏览器会自动打开 http://127.0.0.1:7860,即可看到 WebUI 界面。

若你使用的是 Linux/macOS,可参考官方 webui.sh 脚本启动,步骤与 Windows 类似。

四、基础使用方法

1. 启动 WebUI

在命令行或双击 webui-user.bat 后,等待出现类似下方的日志:

Running on local URL:  http://127.0.0.1:7860
To create a public link, set `share=True` in `launch.py`
...

打开浏览器访问该地址,即可进入绘图界面。

2. 输入提示词(Prompt)

在界面左侧的 “Prompt” 输入框中填写想要生成的内容。提示词越具体、层次感越强,生成结果越接近预期。例如:

a beautiful sunset over the ocean, cinematic lighting, 8k, highly detailed, photorealistic

如果想加入负面提示词(Negative Prompt),可在下方 “Negative prompt” 框中填写不希望出现的内容,如:

blurry, low quality, distortion, watermark

3. 调整生成参数

“Settings” 面板中可设置以下关键参数(详见第五节):

  • Sampling method(采样器)
  • Sampling steps(步数)
  • Width / Height(图像尺寸)
  • CFG Scale(提示词权重)
  • Seed(随机种子)
  • Batch count / Batch size(批次数)

4. 生成图片

参数设置完毕后,点击 “Generate”(生成)按钮,等待数秒(取决于显卡性能),右侧预览窗口将出现生成的图像。若对结果不满意,可直接修改提示词或参数后重新生成。

生成的图片默认保存在 outputs/txt2img-images 目录下,文件名包含生成时的种子值和时间戳,方便后期查找。

五、常用参数说明

1. 采样器(Sampler)

采样器决定了从噪声到图像的“去噪路径”。常用的采样器有:

  • Euler A:速度快,适合快速预览。
  • DPM++ 2M Karras:质量与速度兼顾,推荐作为默认。
  • DPM++ SDE Karras:细节丰富,生成速度稍慢。
  • DDIM:经典采样器,适合需要多次迭代的风格化创作。

不同采样器在同一提示词下会产生略有差异的画面,可根据需求自行尝试。

2. 步数(Steps)

步数指模型进行去噪的总次数,通常在 20~50 之间。步数越多,图像细节越丰富,但生成时间也会线性增长。对于大多数场景,30 步是一个比较平衡的选择。

3. 尺寸(Width / Height)

生成的图像宽高,单位为像素。常见的预设有:

  • 512×512(默认)
  • 768×768(更高分辨率)
  • 1024×1024(需要更大的显存)

若显卡显存不足,建议先使用 512×512 或 768×768,待生成满意后使用 “Extra” → “Upscale” 功能进行放大。

4. 提示词权重(CFG Scale)

CF(Classifier Free Guidance)控制模型对提示词的“遵守程度”。数值范围通常为 1~30,默认值 7 左右。值越大,图像越严格遵循提示词,但过高容易出现噪声或失真;值过低,则图像可能偏离提示词。

5. 随机种子(Seed)

种子决定了噪声的起始状态。相同的种子 + 相同的参数 = 相同的图像。利用种子可以复现、对比不同参数的效果。若想每次随机,可将种子设为 -1

6. Batch count / Batch size

Batch count 为一次性生成的图片数量(每个批次之间的种子会自动递增),Batch size 为每个批次内部并行的图片数量(受显存限制)。如果显存足够,可把 Batch size 设为 2~4,以加快批量生成速度。

7. 其他可选参数

  • Save grid:将多张图片拼接成网格保存。
  • Show extra info:在生成图片的 EXIF 信息里记录使用的模型、采样器、步数等。
  • CLIP stop at last layer:控制 CLIP 模型的层数,影响文字提示词与图像的对齐程度。

六、热门模型推荐

1. 真人写实模型

  • Realistic Vision V5(简称 “RV5”)
    擅长生成高保真的人像和风景,细节丰富,光影自然。
  • Deliberate
    风格偏向写实,颜色饱和度适中,适合艺术写实类作品。
  • Absolute Reality
    拥有强大的皮肤纹理与毛发渲染能力,是人物写实的热门选择。

使用方法:下载对应的 .ckpt.safetensors 文件,放置在 models/Stable-diffusion 目录后,在 WebUI 的左上角模型下拉框中切换即可。

2. 动漫 / 二次元模型

  • Anything-V5 (Prompt-Only)
    以细腻的动漫人物为主打,色彩鲜艳、线条清晰。
  • Counterfeit V2.0
    兼具动漫与写实风格,适合混合创作。
  • Animagine XL
    基于 SDXL 架构的升级版动漫模型,分辨率更高,细节更丰富。

3. 如何下载并放置模型

大多数模型托管在 Hugging Face 或 Civitai 平台。下载步骤如下:

# 示例:下载 Realistic Vision V5(来自 Civitai)
# 1. 打开 https://civitai.com/models/xxxxx (对应模型页面)
# 2. 点击页面中的 "Download" 按钮获取 .ckpt 文件
# 3. 将文件移动至本地的 Stable Diffusion 模型目录
mv RealisticVisionV5.safetensors /path/to/stable-diffusion-webui/models/Stable-diffusion/

放置完毕后,重新加载 WebUI(点击左上角的模型刷新按钮),即可在模型列表中看到新模型。

七、常见问题 FAQ

1. 显存不足(OutOfMemory)怎么办?

显存不足是最常见的报错,尤其在使用高分辨率(≥1024×1024)或开启高 Batch size 时。以下几种解决思路可供参考:

  • 降低图像分辨率,例如先使用 512×512 生成草图,再进行放大。
  • 关闭 “xformers”(在启动脚本中加入 --xformers 参数),改为使用标准的 PyTorch 优化。
  • 开启 “Low VRAM” 模式(--lowvram),牺牲一定速度换取显存占用降低。
  • 升级显卡驱动至最新版本,并确保使用的是支持 CUDA 11.8/12.1 的 PyTorch 版本。

2. 生成的图片模糊或出现噪点

这通常与采样步数(Steps)过低或 CFG Scale 设置不当有关。建议尝试:

  • 将 Steps 调至 30~40。
  • 适当提高 CFG Scale(如 7~9)。
  • 使用质量更高的采样器(如 DPM++ 2M Karras)。

3. 提示词没有生效,图像偏离主题

检查是否在 Negative Prompt 中误添加了过于宽泛的否定词(如 “cartoon” 可能在写实模型中导致细节被抑制)。可以尝试:

# 示例:强化写实效果的提示词
a hyperrealistic portrait of a woman, sharp focus, natural lighting, RAW photo
# 对应的负面提示词(适度)
blurry, cartoon, anime, low detail, deformed

4. 如何使用 ControlNet 插件?

ControlNet 允许在生成时加入额外的条件控制(如姿势、线稿、深度图),实现更精细的构图。

  1. 在 WebUI 左侧的 “Extensions” 页面搜索并安装 “ControlNet” 插件。
  2. 安装完成后,刷新页面,左侧会出现 “ControlNet” 面板。
  3. 上传参考图片(如人物姿势图),选择对应的预处理模型(如 “openpose”),并设置相应的权重。
  4. 在主 prompt 中填写目标描述,点击 “Generate”。

5. 如何保存高质量的无损图片?

默认情况下,WebUI 会把生成的图片保存为 PNG。若想要更高的色彩深度或保留 EXIF 信息,可在生成时勾选 “Save metadata” 或使用 “Extra” 标签页的 “Upscale” 功能(推荐使用 ESRGANStable Diffusion x4 放大模型)后再导出。

6. 如何在多平台共享自己的模型或 LoRA?

将训练好的 LoRA、Embedding 或 Checkpoint 上传至 Hugging Face 或 Civitai,遵循平台的许可证(如 CreativeML Open RAIL‑M),即可供他人下载使用。上传前请确保已去除任何未经授权的受版权保护的内容。

八、SEO 写作小技巧

为了让这篇教程在搜索引擎中获得更好的排名,建议在文章中自然嵌入以下关键词:

  • Stable Diffusion怎么用
  • 本地AI绘图工具
  • Stable Diffusion安装教程
  • 秋叶整合包下载
  • Stable Diffusion与Midjourney对比
  • Stable Diffusion模型推荐
  • AI绘图参数设置
  • Stable Diffusion常见问题

同时,保持文章结构清晰、使用标题(H2/H3)分段、适当加入内部链接(如指向其他 Stable Diffusion 使用技巧的文章),可提升页面停留时间和用户互动,间接提升搜索排名。

九、结语

Stable Diffusion作为当前最开放、最具可玩性的本地AI绘图工具,已经吸引了全球大量的创作者、游戏开发者、设计师以及AI爱好者。通过本文的完整安装指南、基础使用流程、常用参数解析以及热门模型推荐,你可以快速上手并在自己的电脑上实现高质量的AI创作。无论是想要生成写实人像、细腻动漫还是自定义风格的插画,Stable Diffusion配合秋叶整合包都能让你事半功倍。祝你在AI绘图的道路上玩得开心,创作出令人惊艳的作品!

相关教程

© 版权声明
THE END
喜欢就支持一下吧
点赞13 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容

七天热门