必读!

Q:为什么上传这个?

A:很多新手都找不到下载地址,网盘之类的又太慢了,我选择上传一个纯净版给你们使用。


Q:怎么用?

A:1. 下载后,将文件后缀名改为 zip。2. 直接运行 “run_nvidia_gpu”。


Q:不会有病毒吧?

A:文件一个字节都未更改,怕有毒的可以不用,不要揣测我的人品。


文件地址:https://github.com/comfyanonymous/ComfyUI/releases/download/latest/ComfyUI_windows_portable_nvidia_cu121_or_cpu.7z

项目地址:https://github.com/comfyanonymous/ComfyUI?tab=readme-ov-file。


ComfyUI

=======

最强大、最模块化的稳定扩散图形界面和后端。

-----------


这个界面让你可以使用基于图表/节点/流程图的界面设计和执行高级的稳定扩散流程。有关一些工作流示例以及ComfyUI的功能,可以查看:

### [ComfyUI 示例](https://comfyanonymous.github.io/ComfyUI_examples/)


### [安装ComfyUI](#installing)


## 特点

- 节点/图表/流程图界面,无需编写代码即可实验和创建复杂的稳定扩散工作流。

-完整支持SD1.x, SD2.x, [SDXL](https://comfyanonymous.github.io/ComfyUI_examples/sdxl/), [稳定视频扩散](https://comfyanonymous.github.io/ComfyUI_examples/video/), [稳定级联](https://comfyanonymous.github.io/ComfyUI_examples/stable_cascade/) 和[SD3](https://comfyanonymous.github.io/ComfyUI_examples/sd3/)

- 异步队列系统

- 多种优化:仅重新执行执行间变化的工作流部分。

- 命令行选项:```--lowvram``` 使其在小于3GB显存的GPU上工作(在低显存GPU上自动启用)

- 即使没有GPU也能工作:```--cpu```(慢)

- 可以加载ckpt、safetensors和diffusers模型/检查点。独立的VAE和CLIP模型。

- 嵌入/文本倒置

- [Loras(常规、locon和loha)](https://comfyanonymous.github.io/ComfyUI_examples/lora/)

- [超网](https://comfyanonymous.github.io/ComfyUI_examples/hypernetworks/)

- 从生成的PNG文件加载完整工作流程(包括种子)。

- 以Json文件保存/加载工作流程。

- 节点界面可以用于创建复杂的工作流程,如[高分辨率修复](https://comfyanonymous.github.io/ComfyUI_examples/2_pass_txt2img/)或更高级的工作流程。

- [区域组成](https://comfyanonymous.github.io/ComfyUI_examples/area_composition/)

- 使用常规和修复模型进行[修复](https://comfyanonymous.github.io/ComfyUI_examples/inpaint/)

- [ControlNet 和 T2I-Adapter](https://comfyanonymous.github.io/ComfyUI_examples/controlnet/)

- [放大模型(ESRGAN,ESRGAN变体,SwinIR,Swin2SR等)](https://comfyanonymous.github.io/ComfyUI_examples/upscale_models/)

- [unCLIP 模型](https://comfyanonymous.github.io/ComfyUI_examples/unclip/)

- [GLIGEN](https://comfyanonymous.github.io/ComfyUI_examples/gligen/)

- [模型合并](https://comfyanonymous.github.io/ComfyUI_examples/model_merging/)

- [LCM模型和Loras](https://comfyanonymous.github.io/ComfyUI_examples/lcm/)

- [SDXL Turbo](https://comfyanonymous.github.io/ComfyUI_examples/sdturbo/)

- 使用[TAESD](#how-to-show-high-quality-previews)进行潜在预览

- 启动非常快

- 完全离线工作:绝不会下载任何东西。

- [配置文件](extra_model_paths.yaml.example) 设置模型的搜索路径。


工作流程示例可以在[示例页面](https://comfyanonymous.github.io/ComfyUI_examples/)找到。


## 快捷键



Ctrl 也可以在 macOS 用户中替换为 Cmd


# 安装


## Windows


有一个用于Windows的便携独立版本,应该可以在Nvidia GPU或仅用于CPU上运行,位于[发布页面](https://github.com/comfyanonymous/ComfyUI/releases)。


### [直接下载链接](https://github.com/comfyanonymous/ComfyUI/releases/download/latest/ComfyUI_windows_portable_nvidia_cu121_or_cpu.7z)


只需下载,用[7-Zip](https://7-zip.org)解压并运行。确保将你的稳定扩散检查点/模型(巨大的ckpt/safetensors文件)放在:ComfyUI\models\checkpoints


如果解压有问题,右键单击文件 -> 属性 -> 解锁


#### 我如何在另一个UI和ComfyUI之间共享模型?


请参阅[配置文件](extra_model_paths.yaml.example)设置模型的搜索路径。在独立的Windows版本中可以在ComfyUI目录中找到这个文件。将其重命名为extra_model_paths.yaml并用你喜欢的文本编辑器进行编辑。


## Jupyter Notebook


要在paperspace、kaggle或colab等服务上运行它,可以使用我的[Jupyter Notebook](notebooks/comfyui_colab.ipynb)


## 手动安装(Windows、Linux)


Git clone这个仓库。


将你的SD检查点(巨大的ckpt/safetensors文件)放在:models/checkpoints


将你的VAE放在:models/vae


### AMD GPU(仅限Linux)

AMD用户可以安装rocm并使用pip安装pytorch,如果尚未安装,这是安装稳定版的命令:


```pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/rocm6.0```


这是安装带有ROCm 6.0的预发布版本的命令,可能有一些性能改进:


```pip install --pre torch torchvision torchaudio --index-url https://download.pytorch.org/whl/nightly/rocm6.1```


### NVIDIA


Nvidia用户应该使用此命令安装稳定的pytorch:


```pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu121```


这是安装可能有性能改进的pytorch预发布版本的命令:


```pip install --pre torch torchvision torchaudio --index-url https://download.pytorch.org/whl/nightly/cu124```


#### 故障排除


如果你收到“Torch not compiled with CUDA enabled”错误,请卸载torch:


```pip uninstall torch```


然后使用上面的命令重新安装。


### 依赖


通过在ComfyUI文件夹内打开终端并运行以下命令安装依赖:


```pip install -r requirements.txt```


完成后,你应该已安装所有,然后可以继续运行ComfyUI。


### 其他:


#### Intel GPU


支持所有满足Intel扩展Pytorch(IPEX)支持要求的Intel GPU。详细的安装要求请参阅[安装页面](https://intel.github.io/intel-extension-for-pytorch/index.html#installation?platform=gpu)。选择你的平台和安装方法,并按照说明操作。步骤如下:


1. 如果需要,首先安装IPEX安装页面上列出的或更新的驱动程序或内核。

1. 按照说明为你的平台安装[Intel oneAPI Basekit](https://www.intel.com/content/www/us/en/developer/tools/oneapi/base-toolkit-download.html)。

1. 参照IPEX安装页面上的说明为你的平台安装IPEX包。

1. 按照[ComfyUI手动安装](#manual-install-windows-linux)说明为Windows和Linux进行安装后,按上文所述正常运行ComfyUI。


更多讨论和帮助请参见[这里](https://github.com/comfyanonymous/ComfyUI/discussions/476)。


#### 苹果Mac硅


你可以在最近的macOS版本中在Apple Mac silicon(M1或M2)上安装ComfyUI。


1. 安装pytorch预发布版。有关说明,请参阅Apple开发者指南中的[加速的PyTorch训练](https://developer.apple.com/metal/pytorch/),确保安装最新的pytorch预发布版。

1. 按照[ComfyUI手动安装](#manual-install-windows-linux)指示,为Windows和Linux安装ComfyUI。

1. 安装ComfyUI的[依赖](#dependencies)。如果你有其他稳定扩散UI,[你可以重用依赖](#i-already-have-another-ui-for-stable-diffusion-installed-do-i-really-have-to-install-all-of-these-dependencies)。

1. 通过运行`python main.py`启动ComfyUI。


> **备注**:记得将你的模型、VAE、LoRAs等放入相应的Comfy文件夹,如[ComfyUI手动安装](#manual-install-windows-linux)中讨论的。


#### DirectML(Windows上的AMD显卡)


```pip install torch-directml``` 然后你可以运行ComfyUI:```python main.py --directml```


### 我已经安装了另一个稳定扩散UI,是否真的需要安装所有这些依赖?


不需要。如果你已经安装了另一个UI并且其python虚拟环境正常工作,你可以使用那个虚拟环境来运行ComfyUI。你可以打开你最喜欢的终端并激活它:


```source path_to_other_sd_gui/venv/bin/activate```


或者在Windows上:


使用Powershell:```"path_to_other_sd_gui\venv\Scripts\Activate.ps1"```


使用cmd.exe:```"path_to_other_sd_gui\venv\Scripts\activate.bat"```


然后你可以使用那个终端运行ComfyUI而不需要安装任何依赖。请注意,虚拟环境文件夹名称可能会因SD UI不同而有所不同。


# 运行


```python main.py```


### 对于未正式支持ROCm的AMD显卡


如果你遇到问题,可以尝试以下命令运行:


对于6700,6600以及可能的其他RDNA2或更旧显卡:```HSA_OVERRIDE_GFX_VERSION=10.3.0 python main.py```


对于AMD 7600以及可能的其他RDNA3显卡:```HSA_OVERRIDE_GFX_VERSION=11.0.0 python main.py```


# 备注


只有具有所有正确输入的图表部分的输出才会被执行。


每次执行时,只有那些与前次执行不同的图表部分会被执行。如果你两次提交相同的图表,仅首次会被执行。如果更改了图表的最后部分,仅更改的部分及其相关的部分会被执行。


在网页上拖动生成的png或加载一个将给出完整的工作流程,包括用于创建它的种子。


你可以使用()更改单词或短语的强调程度,例如:(good code:1.2)或(bad code:0.8)。()的默认强调为1.1。如需在实际提示中使用()字符,使用\\(或\\)进行转义。


你可以使用{day|night}进行通配符/动态提示。使用这种语法,“{wild|card|test}”会在每次队列中随机替换为“wild”、“card”或“test”之一。如果你在实际提示中使用{}字符,请使用\\{或\\}进行转义。


动态提示还支持C风格的注释,如`// 注释` 或 `/* 注释 */`。


要在文本提示中使用文本倒置概念/嵌入,请将其置于models/embeddings目录中,并在CLIPTextEncode节点中使用它们,如下所示(可以省略.pt扩展名):


```embedding:embedding_filename.pt```


## 如何显示高质量预览?


使用```--preview-method auto```启用预览。


默认安装包括一种快速低分辨率潜在预览方式。若要启用使用[TAESD](https://github.com/madebyollin/taesd)的高质量预览,下载[taesd_decoder.pth](https://github.com/madebyollin/taesd/raw/main/taesd_decoder.pth)(适用于SD1.x和SD2.x)和[taesdxl_decoder.pth](https://github.com/madebyollin/taesd/raw/main/taesdxl_decoder.pth)(适用于SDXL)模型,并将它们放在`models/vae_approx`文件夹中。安装完毕后,重启ComfyUI以启用高质量预览。


## 如何使用TLS/SSL?


运行以下命令生成自签名证书(不适合共享/生产使用)和密钥:`openssl req -x509 -newkey rsa:4096 -keyout key.pem -out cert.pem -sha256 -days 3650 -nodes -subj "/C=XX/ST=StateName/L=CityName/O=CompanyName/OU=CompanySectionName/CN=CommonNameOrHostname"`


使用`--tls-keyfile key.pem --tls-certfile cert.pem`启用TLS/SSL,应用程序将通过`https://...`而不是`http://...`访问。


> 备注:Windows用户可以使用[alexisrolland/docker-openssl](https://github.com/alexisrolland/docker-openssl)或[第三方二进制分发](https://wiki.openssl.org/index.php/Binaries)中的一个运行上述命令示例。 <br/><br/>如果你使用容器,请注意卷挂载`-v`可以是一个相对路径,因此`... -v ".\:/openssl-certs" ...`会在当前命令终端创建密钥和证书文件。


## 支持和开发渠道


[Matrix空间:#comfyui_space:matrix.org](https://app.element.io/#/room/%23comfyui_space%3Amatrix.org)(类似于Discord,但开源)。


# 常见问题


### 你为什么要做这个?


我想详细了解稳定扩散的工作原理。我还想要一个干净且强大的工具,让我能够毫无限制地实验稳定扩散。


### 这是给谁的?


这是给任何想要使用稳定扩散创建复杂工作流程的人或想要更多了解稳定扩散工作原理的人。界面与稳定扩散的工作原理非常接近,代码应该比其他稳定扩散UI更容易理解。