维护咨询 大模型部署 问题解决 技能定制 大模型训练
Stable Diffusion怎么用?本地AI绘图工具安装使用教程
一、Stable Diffusion是什么
Stable Diffusion(中文常译为“稳定扩散”)是一款基于扩散模型(Diffusion Model)的开源本地AI绘图工具。它由慕尼黑工业大学的CompVis团队研发,并在GitHub上以Apache‑2.0许可证公开源码。与传统的云端AI绘图服务不同,Stable Diffusion可以完全在自己的电脑上运行,用户无需将数据上传到服务器,从而更好地保护隐私并且能够自由地对模型进行微调和二次开发。
Stable Diffusion通过“噪声到图像”的过程,从随机噪声开始逐步去噪,最终生成符合提示词(Prompt)的图像。模型本身是一个约4GB的Checkpoint文件,配合轻量的Web界面(常见的有AUTOMATIC1111的WebUI),即可实现“一键生成”。由于模型和代码全部开源,用户可以自行更换底层的扩散模型、采样器、ControlNet等插件,极大提升了可玩性和定制化空间。
二、Stable Diffusion 与 Midjourney 的区别
虽然Midjourney同样是热门的AI绘图工具,但两者在运营模式、使用成本以及可定制性上存在显著差异:
- 费用:Midjourney采用付费订阅制,用户需要在Discord平台上购买会员才能使用高质量模型;Stable Diffusion本身免费,用户只需承担本地硬件(显卡、CPU、内存)的购买成本。
- 运行方式:Midjourney是基于云端的API服务,所有绘图请求均在远程服务器完成;Stable Diffusion则是本地运行,数据不离开用户的电脑。
- 模型可自定义:Stable Diffusion的Checkpoint文件完全开放,用户可以自由下载不同的模型权重(如写实、动漫、二次元等),甚至自行训练专属风格;Midjourney的模型更新由官方统一控制,用户只能通过官方提供的风格参数进行微调。
- 插件生态:Stable Diffusion拥有丰富的社区插件,例如ControlNet、LoRA、Embedding等,可以实现姿势控制、局部编辑、风格迁移等功能;Midjourney的插件生态相对封闭,扩展能力有限。
- 硬件需求:Stable Diffusion对显卡要求较高(推荐8GB以上显存),但只需一次性投入;Midjourney的算力由平台提供,用户无需担心硬件配置。
综上所述,如果你追求免费、隐私保护以及高度自定义,Stable Diffusion是更合适的选择;如果只想快速产出高质量图片且不关心硬件投入,Midjourney仍是便利的云端方案。
三、安装 Stable Diffusion——推荐使用秋叶整合包
1. 环境要求
- 操作系统:Windows 10/11(推荐),Linux、macOS 亦可(但社区资源以Windows为主)。
- 显卡:NVIDIA GPU,显存 ≥ 6 GB(8 GB 以上更佳),支持CUDA 11.8 以上。
- 硬盘空间:至少 30 GB 可用空间(模型文件+缓存)。
- 内存:建议 16 GB 以上。
- Python:3.10.x(秋叶整合包已自带,无需自行安装)。
2. 下载秋叶整合包
秋叶(AutumnLeaf)整合包是中文社区对 AUTOMATIC1111 WebUI 的一次封装,包含了运行所需的所有依赖(如 Python、PyTorch、xformers),以及预优化的启动脚本,省去手动配置环境的繁琐步骤。
官方下载链接(GitHub Releases)如下:
https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/latest
在该页面找到 “stable-diffusion-webui-windows.zip”(或对应的压缩包)并点击下载。下载完毕后,解压到任意目录即可。
3. 安装步骤(Windows 示例)
- 解压下载的压缩包,得到
stable-diffusion-webui文件夹。 - 打开文件夹,找到
webui-user.bat(Windows 启动脚本),双击运行。 - 首次启动会自动下载模型文件(约 4 GB),请确保网络通畅。若下载速度慢,可使用代理或提前手动下载模型文件放入
models/Stable-diffusion目录。 - 启动成功后,浏览器会自动打开
http://127.0.0.1:7860,即可看到 WebUI 界面。
若你使用的是 Linux/macOS,可参考官方 webui.sh 脚本启动,步骤与 Windows 类似。
四、基础使用方法
1. 启动 WebUI
在命令行或双击 webui-user.bat 后,等待出现类似下方的日志:
Running on local URL: http://127.0.0.1:7860
To create a public link, set `share=True` in `launch.py`
...
打开浏览器访问该地址,即可进入绘图界面。
2. 输入提示词(Prompt)
在界面左侧的 “Prompt” 输入框中填写想要生成的内容。提示词越具体、层次感越强,生成结果越接近预期。例如:
a beautiful sunset over the ocean, cinematic lighting, 8k, highly detailed, photorealistic
如果想加入负面提示词(Negative Prompt),可在下方 “Negative prompt” 框中填写不希望出现的内容,如:
blurry, low quality, distortion, watermark
3. 调整生成参数
在 “Settings” 面板中可设置以下关键参数(详见第五节):
- Sampling method(采样器)
- Sampling steps(步数)
- Width / Height(图像尺寸)
- CFG Scale(提示词权重)
- Seed(随机种子)
- Batch count / Batch size(批次数)
4. 生成图片
参数设置完毕后,点击 “Generate”(生成)按钮,等待数秒(取决于显卡性能),右侧预览窗口将出现生成的图像。若对结果不满意,可直接修改提示词或参数后重新生成。
生成的图片默认保存在 outputs/txt2img-images 目录下,文件名包含生成时的种子值和时间戳,方便后期查找。
五、常用参数说明
1. 采样器(Sampler)
采样器决定了从噪声到图像的“去噪路径”。常用的采样器有:
- Euler A:速度快,适合快速预览。
- DPM++ 2M Karras:质量与速度兼顾,推荐作为默认。
- DPM++ SDE Karras:细节丰富,生成速度稍慢。
- DDIM:经典采样器,适合需要多次迭代的风格化创作。
不同采样器在同一提示词下会产生略有差异的画面,可根据需求自行尝试。
2. 步数(Steps)
步数指模型进行去噪的总次数,通常在 20~50 之间。步数越多,图像细节越丰富,但生成时间也会线性增长。对于大多数场景,30 步是一个比较平衡的选择。
3. 尺寸(Width / Height)
生成的图像宽高,单位为像素。常见的预设有:
- 512×512(默认)
- 768×768(更高分辨率)
- 1024×1024(需要更大的显存)
若显卡显存不足,建议先使用 512×512 或 768×768,待生成满意后使用 “Extra” → “Upscale” 功能进行放大。
4. 提示词权重(CFG Scale)
CF(Classifier Free Guidance)控制模型对提示词的“遵守程度”。数值范围通常为 1~30,默认值 7 左右。值越大,图像越严格遵循提示词,但过高容易出现噪声或失真;值过低,则图像可能偏离提示词。
5. 随机种子(Seed)
种子决定了噪声的起始状态。相同的种子 + 相同的参数 = 相同的图像。利用种子可以复现、对比不同参数的效果。若想每次随机,可将种子设为 -1。
6. Batch count / Batch size
Batch count 为一次性生成的图片数量(每个批次之间的种子会自动递增),Batch size 为每个批次内部并行的图片数量(受显存限制)。如果显存足够,可把 Batch size 设为 2~4,以加快批量生成速度。
7. 其他可选参数
- Save grid:将多张图片拼接成网格保存。
- Show extra info:在生成图片的 EXIF 信息里记录使用的模型、采样器、步数等。
- CLIP stop at last layer:控制 CLIP 模型的层数,影响文字提示词与图像的对齐程度。
六、热门模型推荐
1. 真人写实模型
- Realistic Vision V5(简称 “RV5”)
擅长生成高保真的人像和风景,细节丰富,光影自然。 - Deliberate
风格偏向写实,颜色饱和度适中,适合艺术写实类作品。 - Absolute Reality
拥有强大的皮肤纹理与毛发渲染能力,是人物写实的热门选择。
使用方法:下载对应的 .ckpt 或 .safetensors 文件,放置在 models/Stable-diffusion 目录后,在 WebUI 的左上角模型下拉框中切换即可。
2. 动漫 / 二次元模型
- Anything-V5 (Prompt-Only)
以细腻的动漫人物为主打,色彩鲜艳、线条清晰。 - Counterfeit V2.0
兼具动漫与写实风格,适合混合创作。 - Animagine XL
基于 SDXL 架构的升级版动漫模型,分辨率更高,细节更丰富。
3. 如何下载并放置模型
大多数模型托管在 Hugging Face 或 Civitai 平台。下载步骤如下:
# 示例:下载 Realistic Vision V5(来自 Civitai)
# 1. 打开 https://civitai.com/models/xxxxx (对应模型页面)
# 2. 点击页面中的 "Download" 按钮获取 .ckpt 文件
# 3. 将文件移动至本地的 Stable Diffusion 模型目录
mv RealisticVisionV5.safetensors /path/to/stable-diffusion-webui/models/Stable-diffusion/
放置完毕后,重新加载 WebUI(点击左上角的模型刷新按钮),即可在模型列表中看到新模型。
七、常见问题 FAQ
1. 显存不足(OutOfMemory)怎么办?
显存不足是最常见的报错,尤其在使用高分辨率(≥1024×1024)或开启高 Batch size 时。以下几种解决思路可供参考:
- 降低图像分辨率,例如先使用 512×512 生成草图,再进行放大。
- 关闭 “xformers”(在启动脚本中加入
--xformers参数),改为使用标准的 PyTorch 优化。 - 开启 “Low VRAM” 模式(
--lowvram),牺牲一定速度换取显存占用降低。 - 升级显卡驱动至最新版本,并确保使用的是支持 CUDA 11.8/12.1 的 PyTorch 版本。
2. 生成的图片模糊或出现噪点
这通常与采样步数(Steps)过低或 CFG Scale 设置不当有关。建议尝试:
- 将 Steps 调至 30~40。
- 适当提高 CFG Scale(如 7~9)。
- 使用质量更高的采样器(如 DPM++ 2M Karras)。
3. 提示词没有生效,图像偏离主题
检查是否在 Negative Prompt 中误添加了过于宽泛的否定词(如 “cartoon” 可能在写实模型中导致细节被抑制)。可以尝试:
# 示例:强化写实效果的提示词
a hyperrealistic portrait of a woman, sharp focus, natural lighting, RAW photo
# 对应的负面提示词(适度)
blurry, cartoon, anime, low detail, deformed
4. 如何使用 ControlNet 插件?
ControlNet 允许在生成时加入额外的条件控制(如姿势、线稿、深度图),实现更精细的构图。
- 在 WebUI 左侧的 “Extensions” 页面搜索并安装 “ControlNet” 插件。
- 安装完成后,刷新页面,左侧会出现 “ControlNet” 面板。
- 上传参考图片(如人物姿势图),选择对应的预处理模型(如 “openpose”),并设置相应的权重。
- 在主 prompt 中填写目标描述,点击 “Generate”。
5. 如何保存高质量的无损图片?
默认情况下,WebUI 会把生成的图片保存为 PNG。若想要更高的色彩深度或保留 EXIF 信息,可在生成时勾选 “Save metadata” 或使用 “Extra” 标签页的 “Upscale” 功能(推荐使用 ESRGAN 或 Stable Diffusion x4 放大模型)后再导出。
6. 如何在多平台共享自己的模型或 LoRA?
将训练好的 LoRA、Embedding 或 Checkpoint 上传至 Hugging Face 或 Civitai,遵循平台的许可证(如 CreativeML Open RAIL‑M),即可供他人下载使用。上传前请确保已去除任何未经授权的受版权保护的内容。
八、SEO 写作小技巧
为了让这篇教程在搜索引擎中获得更好的排名,建议在文章中自然嵌入以下关键词:
- Stable Diffusion怎么用
- 本地AI绘图工具
- Stable Diffusion安装教程
- 秋叶整合包下载
- Stable Diffusion与Midjourney对比
- Stable Diffusion模型推荐
- AI绘图参数设置
- Stable Diffusion常见问题
同时,保持文章结构清晰、使用标题(H2/H3)分段、适当加入内部链接(如指向其他 Stable Diffusion 使用技巧的文章),可提升页面停留时间和用户互动,间接提升搜索排名。
九、结语
Stable Diffusion作为当前最开放、最具可玩性的本地AI绘图工具,已经吸引了全球大量的创作者、游戏开发者、设计师以及AI爱好者。通过本文的完整安装指南、基础使用流程、常用参数解析以及热门模型推荐,你可以快速上手并在自己的电脑上实现高质量的AI创作。无论是想要生成写实人像、细腻动漫还是自定义风格的插画,Stable Diffusion配合秋叶整合包都能让你事半功倍。祝你在AI绘图的道路上玩得开心,创作出令人惊艳的作品!








暂无评论内容