本地部署 Stable Diffusion 3.5 并实现公网访问
在 AI 绘画领域,模型的性能与部署灵活性正变得越来越重要。尤其是当你的创作流程不再局限于单台设备,而是需要跨时间、跨空间协作时——比如你在通勤路上突然有了灵感,想立刻调用家里的高性能主机生成图像;又或者团队成员分散各地,却希望共用一套稳定高效的绘图系统。
Stable Diffusion 3.5 FP8 的出现,恰好为这类需求提供了理想的技术基础。作为 Stability AI 推出的高性能量化版本,它通过FP8(Float8)精度压缩技术,大幅降低了显存占用和推理延迟,使得原本只能在高端服务器上运行的 SD3.5 模型,如今也能流畅跑在主流消费级显卡上。
更关键的是,结合ComfyUI 的可视化工作流 + cpolar 内网穿透方案,我们不仅能实现本地高效绘图,还能将服务暴露到公网,随时随地通过浏览器访问自己的 AI 绘画引擎。
本文将以 Windows 环境为例,完整演示如何从零搭建一个可远程访问的 Stable Diffusion 3.5 FP8 服务端,涵盖模型下载、环境配置、工作流调试以及长期可用的公网映射策略。
部署前准备:为什么选择这套组合?
先明确几个核心痛点:
- 显存不够?—— FP8 模型可在 8GB 显存下流畅运行 1024×1024 分辨率。
- 操作复杂?—— ComfyUI 提供图形化节点式界面,无需代码即可构建复杂流程。
- 无法远程使用?—— cpolar 实现内网穿透,无需公网 IP 和路由器配置,一键生成 HTTPS 公网地址。
这套组合的优势在于“轻量但强大”:不依赖 Docker、Anaconda 或云服务器,纯绿色解压即用,适合个人开发者、小型工作室快速落地。
测试环境如下:
- 操作系统:Windows 11 专业版
- GPU:NVIDIA RTX 3070(8GB)
- Python 版本:由 ComfyUI 自带运行时支持,无需手动安装
安装与启动 ComfyUI
ComfyUI 是目前最流行的基于节点的 Stable Diffusion 前端之一,以其低资源消耗、高度模块化和强大的调试能力著称。
前往官方 GitHub 页面获取最新版本:
🔗 https://github.com/comfyanonymous/ComfyUI
推荐选择Portable Version(便携版),解压后直接运行脚本即可启动,避免复杂的依赖管理。
解压完成后,你会看到多个.bat启动文件:
run_cpu.bat:适用于无独立显卡设备(速度较慢)run_nvidia_gpu.bat:使用 CUDA 加速,强烈建议 NVIDIA 用户使用
双击运行run_nvidia_gpu.bat,命令行窗口会自动拉起服务。等待几秒后,若看到以下输出:
Starting server To see the GUI go to: http://127.0.0.1:8188说明服务已成功启动。
打开浏览器访问:
👉 http://127.0.0.1:8188
即可进入 ComfyUI 主界面。
默认是英文界面,中文用户可通过安装语言包切换为简体中文:
- 访问项目页:GitHub - AIGODLIKE/AIGODLIKE-ComfyUI-Translation
- 下载 ZIP 包并解压
- 将整个文件夹复制到
ComfyUI/custom_nodes/目录下 - 重启 ComfyUI
- 在右上角设置中选择「Language」→「简体中文」
刷新页面后,界面即变为中文,后续操作更加直观。
获取 Stable Diffusion 3.5 FP8 模型
本次部署的核心是Stable-Diffusion-3.5-FP8模型,其最大亮点在于采用E4M3FN 格式的 FP8 量化技术,在几乎不损失画质的前提下,显著减少显存占用与计算开销。
| 特性 | 说明 |
|---|---|
| 模型类型 | 文生图扩散模型(Text-to-Image) |
| 精度格式 | FP8(E4M3FN),兼容性强 |
| 参数规模 | 基于 SD3.5 Large 架构,约 8B 参数 |
| 显存要求 | ≥ 8GB(6GB 可尝试低分辨率运行) |
| 支持分辨率 | 最高 1024×1024 输出 |
| 主要优势 | 推理速度快、内存占用低、提示词理解强 |
相比传统的 FP16 模型,FP8 版本在相同硬件条件下可提升 30%~50% 的生成速度,特别适合频繁调用或批量出图场景。
下载清单及存放路径
请依次下载以下组件,并放置到对应目录:
✅ 1. 主模型(Checkpoint)
- 文件名:
sd3.5_fp8_e4m3fn.safetensors - 来源:HuggingFace - Comfy-Org/stable-diffusion-3.5-fp8
- 路径:
ComfyUI/models/checkpoints/
⚠️ 注意:此模型专为 FP8 设计,请勿混用非 FP8 版本的 CLIP 或 T5XXL 组件!
✅ 2. 多文本编码器(CLIP-L, CLIP-G, T5XXL)
SD3.5 使用三编码器架构,需同时加载以下三个文件:
| 文件名 | 下载链接 | 存放路径 |
|---|---|---|
clip_l.safetensors | 点击下载 | ComfyUI/models/clip/ |
clip_g.safetensors | 点击下载 | ComfyUI/models/clip/ |
t5xxl_fp8_e4m3fn.safetensors | 点击下载 | ComfyUI/models/clip/ |
💡 关键点:
t5xxl_fp8_e4m3fn.safetensors必须使用 FP8 版本,否则会导致dtype mismatch错误!
✅ 3. 示例工作流(JSON)
为了验证部署是否成功,建议下载官方提供的兼容工作流模板:
🔗 SD3.5-FP8 Example Workflow (JSON)
保存为sd35_fp8_example.json,备用。
全部文件就位后,重启 ComfyUI,确保新模型能被正确识别。
配置并运行文生图任务
接下来我们将导入预设工作流,完成一次完整的图像生成测试。
步骤一:导入 JSON 工作流
- 打开浏览器访问 http://127.0.0.1:8188
- 将之前下载的
sd35_fp8_example.json文件直接拖拽至界面中央区域 - 界面将自动加载节点图,包含:
- 文本提示输入框(Positive Prompt)
- 多编码器组合(CLIP-L, CLIP-G, T5XXL)
- 噪声调度器与采样器
- VAE 解码器
- 图像生成节点
步骤二:指定模型路径
在左侧节点面板中找到 “Checkpoint Loader” 节点:
- 点击下拉菜单,选择
sd3.5_fp8_e4m3fn.safetensors - 确认下方所有 CLIP 编码器均指向正确的
.safetensors文件 - 特别检查 T5XXL 是否为
t5xxl_fp8_e4m3fn.safetensors
这一步至关重要,一旦组件版本错配,可能导致崩溃或输出异常。
步骤三:输入提示词并提交任务
在 “Empty Latent Image” 节点中设置图像尺寸,例如:
- Width: 1024
- Height: 1024
在 “CLIP Text Encode (Prompt)” 节点中输入英文提示词(当前暂不支持中文原生解析):
A futuristic cityscape at sunset, neon lights reflecting on wet streets, cyberpunk style, ultra-detailed, cinematic lighting点击右上角的“Queue Prompt”按钮提交任务。
根据 GPU 性能不同,生成时间通常在 10~30 秒之间。RTX 3070 上约为 15 秒左右。
生成结束后,右侧预览窗口将显示结果图像。
✅ 成功标志:
- 图像清晰、细节丰富
- 构图符合描述(如霓虹倒影、未来城市等元素)
- 控制台无报错信息
至此,你已在本地成功部署并运行了Stable Diffusion 3.5 FP8 高性能模型,具备高质量、高速度的文生图能力。
如何让外部设备也能访问?
虽然本地运行一切正常,但问题来了:如果我现在出门在外,能否用手机连上家里这台机器继续绘图?
答案是肯定的——借助cpolar 内网穿透工具,我们可以轻松将本地8188端口映射为公网 HTTPS 地址,实现远程访问。
传统方式需要公网 IP、域名备案、防火墙开放端口……过程繁琐且成本高。而 cpolar 提供了一种极简替代方案:无需任何网络知识,注册即用,几分钟内完成部署。
创建临时公网访问地址
访问 cpolar 官网并注册账号:
🔗 https://www.cpolar.com下载 Windows 客户端并安装(默认路径即可)
安装完成后,在浏览器中打开管理界面:
👉 http://localhost:9200使用注册账号登录,进入 Web 控制台
点击左侧「隧道管理」→「创建隧道」
填写如下配置:
| 配置项 | 设置值 |
|---|---|
| 隧道名称 | comfyui-sd35fp8(可自定义) |
| 协议 | HTTP |
| 本地地址 | 8188 |
| 域名类型 | 随机域名 |
| 地区 | China Top |
| 高级设置 | 启用 HTTP Auth:user:123(用户名:密码) |
点击「保存」后,系统将生成两个公网 HTTPS 地址(如:https://xxx.cpolar.cn)
🔐 强烈建议开启认证保护,防止未授权访问导致资源滥用
- 复制任意一个公网地址,在手机或其他设备浏览器中打开
输入用户名user和密码123后,即可看到熟悉的 ComfyUI 界面!
🎉 恭喜!你现在可以通过互联网随时随地访问本地部署的 Stable Diffusion 3.5 FP8 模型,进行图像创作、参数调试、团队协作等操作。
📝 补充说明:
此方式生成的公网地址为随机临时域名,有效期通常为 24 小时(免费版)。适合短期测试、临时分享使用。
若需长期固定访问,请继续配置固定子域名。
固定公网访问地址(推荐长期使用)
如果你计划长期使用该服务,比如用于工作室协作、客户演示或自动化集成,建议升级为固定二级子域名,避免每次重新获取链接。
步骤一:预留固定子域名
- 登录 cpolar 官网 → 左侧菜单点击「预留」
- 选择「保留二级子域名」
- 填写信息:
- 域名类型:通用二级域名
- 子域名名称:例如sd35fp8(需全局唯一)
- 地区:China VIP Top
- 备注:Stable Diffusion 3.5 FP8 公网服务 - 点击「保留」
保留成功后,你将获得一个永久有效的域名,例如:
👉https://sd35fp8.cpolar.cn
该地址不会变化,便于记忆和嵌入文档、团队共享。
步骤二:绑定到现有隧道
- 返回 cpolar Web 管理界面(
http://localhost:9200) - 进入「隧道列表」,找到之前的
comfyui-sd35fp8隧道 - 点击「编辑」
- 修改配置:
- 域名类型 → 二级子域名
- Sub Domain → 输入你保留的名称(如sd35fp8)
- 地区 → China VIP - 点击「更新」
等待几秒钟,隧道状态变为「在线」,公网地址已变更为你设定的固定域名。
步骤三:验证远程访问
在任意外部设备浏览器中输入:
https://sd35fp8.cpolar.cn输入认证信息后,顺利进入 ComfyUI 界面,说明固定公网访问已生效。
此后即使重启电脑或断开连接,只要再次启动 ComfyUI 和 cpolar,服务即可自动恢复对外提供。
实际应用场景建议
这套方案不仅适用于个人创作者,也具备良好的扩展潜力:
- 远程办公创作:在家训练模型,出差途中用平板调整参数
- 团队协同设计:多个设计师共用同一套模型库和工作流模板
- 私有 AI 绘画平台:企业内部搭建安全可控的 AI 制图系统
- API 接口对接:结合 ComfyUI API 功能,供其他程序批量调用生成任务
🚀 进阶方向推荐:
- 接入 LoRA 微调模型,实现特定风格定制化输出
- 搭建自动化脚本,定时执行批量生成任务
- 结合 Webhook 实现消息通知机制(如 Telegram 提醒生成完成)
这种高度集成的设计思路,正引领着本地 AI 应用向更可靠、更高效的方向演进。FP8 技术降低了硬件门槛,ComfyUI 提升了交互体验,而 cpolar 则打破了空间限制,三者结合,真正实现了“我的 AI 我做主”。
立即动手部署属于你的高性能 AI 文生图引擎吧!
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考