logo
0
1
Login
同步更新

g## 项目介绍

仓库介绍

本仓库基于 fuliai / comfyui_base 添加了FusionX的FP8量化模型、官方工作流、T8工作流及适配插件 如增加插件了模型,提ISSUE,我将尽快更新,谢谢。

致谢

感谢fuliai / comfyui_base的开发者aiden 感谢youkun、爱简单、影子、羽凡、当S遇到M、Feng等兄弟大佬帮忙,没有大家帮忙我无法完成。 感谢大家的支持!

环境

系统环境 1、Ubuntu 20.04 LTS 2、Python 3.12.0 3、Nodejs 16.13.2 4、Docker 20.10.12 5、Python 3.12.10 6、NVIDIA-SMI 535.216.01 Driver Version: 535.216.01 CUDA Version: 12.2 7、CUDA Toolkit 12.4 8、pytorch version: 2.7.1+cu126 9、xformers version: 0.0.30 10、ComfyUI version: 0.3.41 11、Sageattention 2.1.1 12、Triton 3.2.0

模型

增加了FusionX 完整模型: /workspace/ComfyUI/models/diffusion_models/Wan/FusionX/ 增加了Wan 官方模型: /workspace/ComfyUI/models/diffusion_models/Wan/Wan官方/ 增加了Wan Vace Module模型: /workspace/ComfyUI/models/diffusion_models/Wan/Wan官方/VACE控制模块 增加了FusionX Lora模型: /workspace/ComfyUI/models/loras/Wan/FusionX 为WAN_Native工作流 增加了ComfyUI的clip_vison: /workspace/ComfyUI/models/clip_vision/Wan_官方原生 增加了ComfyUI的text_encoders: /workspace/ComfyUI/models/text_encoders/Wan_官方原生 为WAN_Wrapper工作流 增加了Kijai的clip_vison: /workspace/ComfyUI/models/clip_vision/Wan_Kijai封装 增加了Kijai的text_encoders: /workspace/ComfyUI/models/text_encoders/Wan_Kijai封装

工作流

增加了FusionX 完整模型官方工作流: /workspace/ComfyUI/user/default/workflows/Wan/FusionX/整合模型/VRGameDevGirl官方 增加了FusionX 完整模型T8工作流: /workspace/ComfyUI/user/default/workflows/Wan/FusionX/整合模型/T8star 增加了FusionX Lora模型官方工作流: /workspace/ComfyUI/user/default/workflows/Wan/FusionX/Lora模型/VRGameDevGirl官方 备注: 1、工作流以根据官方PNG格式工作流转化成json格式,内容保持一致。 2、FusionX Lora需要搭配Wan官方模型使用,工作流使用FusionX Lora模型官方工作流。 3、✅为测试通过 4、❌为测试失败 5、❓为尚未测试

使用方法

一键启动命令(备用):

bash /workspace/assets/start.sh

教程

aiden大佬视频教程:https://www.bilibili.com/video/BV18zMWzpEgs/

更新

更新ComfyUI

如何更新ComfyUI,请在终端中运行:

bash /workspace/assets/update_comfyui.sh

更新ComfyUI Manager

如何更新ComfyUI Manager,请在终端中运行:

cd /workspace/ComfyUI/custom_nodes/ComfyUI-Manager git pull

手动更新插件

一般用Manager来安装节点就可以了 如果需要手动安装插件,请在终端中运行:

py312 cd /workspace/ComfyUI/custom_nodes/ git clone 你的插件地址 cd 你的插件目录 uv pip install -r requirements.txt ls -al rm -rf .git 删除插件 git rm --cached ComfyUI/custom_nodes/ComfyUI_Comfyroll_CustomNodes

注意1:所有需要使用pip安装的,都需要先 py312进入python3.12专用环境中,再来安装。 注意2: 凡是git clone下来的文件夹,都需要删除里面的.git文件夹,否则同步不上去。在相应的文件夹中使用ls -a查看是否存在.git文件夹。

手动拉取CNB仓库模型文件

可以使用Wget命令拉取 https://cnb.cool/ai-models 仓库模型文件

wget 目标文件完整地址,例如: wget https://cnb.cool/ai-models/vrgamedevgirl84/Wan14BT2VFusioniX/-/raw/main/FusionX_LoRa/Phantom_Wan_14B_FusionX_LoRA.safetensors 完成后保存仓库

更新同步仓库

安装了插件、保存了工作流、下载了模型,请务必:

cd /workspace find /workspace/ComfyUI/custom_nodes -mindepth 2 -type d -name ".git" -exec rm -rf {} + git add . git commit -m "同步更新" git push

插件使用方法

SIXGOD中文提示词使用方法

方法1:先在页面上双击搜索six,添加SixGodPrompt节点。 方法2:任意输入框,双击输入框即可打开页面,在“快速查找提示词”中输入,然后按回车,ESC退出页面。 备注: 支持自定义词库【把你自己整理词库文件放在yours文件夹下,不受更新会被覆盖影响】 支持中文输入、权重调整、位置调整。Alt+Q键呼出隐藏面板 支持动态随机提示词 本插件专属语法示例:#[red,blue,yellow] 重要:在设置里需要配置翻译模型 1、配置翻译API,目前支持百度接口 百度接口 https://api.fanyi.baidu.com/ 标准版:免费调用量 5万字符/月 单次最长请求1000字符 QPS=1 高级版:免费调用量 100万字符/月 单次最长请求6000字符 QPS=10 接口自行申请 2、配置大模型配置(可用于翻译和随机灵感) 1)安装 llama_cpp_python 参考:https://github.com/abetlen/llama-cpp-python 2)大模型下载(需要.gguf格式) * 建议千问大模型,推荐qwen1_5-4b-chat-q2_k.gguf * 千问大模型系列地址:https://huggingface.co/Qwen ComfyUI-flows 旨在一键启动你的云 ComfyUI

分支即环境,通过选择不同的分支即可选择不同的 ComfyUI 环境;

各个案例分支及其环境仓库链接:

main:包含 ComfyUI 和一些常用的节点 krita:krita&comfyui 你值得拥有 skyreels:无限时长视频生成! hidream:效果堪比 Flux 的开源模型~ wan2:通义万相视频生成! framepack:低显存视频生成可玩~ flux1:曾经的 AI 生图王者! sd3.5:你知道的~ 所有的环境中都内置了许多常用的自定义节点,方便大家的使用!

使用 fork 本仓库 选择一个分支,点击ComfyUI启动按钮,稍等片刻,即可开始! 下载模型

  1. 【推荐】使用 coscmd 拉取腾讯云对象储存中模型 推荐理由:coscmd 在cnb远程开发环境中走的是内网,下载速度更快,且不收下行流量费用,使用前提是需要把你的模型上传到腾讯云对象储存中。

配置 coscmd: coscmd config -a YUOR_SECRET_ID -s YUOR_SECRET_KEY -b BucketName-APPID -r REGION 详细使用请参照官方文档

下载模型 coscmd download xxxx/checkpoints/xxx.safetensors /ComfyUI/models/checkpoints 2. 【推荐】在 CNB 的 ai-models 上下载模型 使用 curl 下载模型,下载格式

curl -o <文件名> -L <下载链接> 下载链接的获取:进入仓库后点击需要下载的 lfs 文件,在中间的【点击下载】按钮处,右键复制链接

下载示例: 从仓库 FLUX.1-dev 下载 ae.sft 到当前目录:

curl -o ae.sft -L https://cnb.cool/ai-models/camenduru/FLUX.1-dev/-/lfs/afc8e28272cd15db3919bacdb6918ce9c1ed22e96cb12c4d5ed0fba823529e38?name=ae.sft 3. 通用下载方法 若需要从魔搭社区等可直接获取文件下载 url 的平台下载模型,可以使用wget、axel

以下是示例,从魔搭社区下载Counterfeit模型至cnb中

-c 参数表示断点续传,防止大文件中断时,需要重新下载。

下载checkpoint模型

wget -c https://www.modelscope.cn/models/AI-ModelScope/Counterfeit-V2.5/resolve/master/Counterfeit-V2.5_pruned.safetensors -O /ComfyUI/models/checkpoints/Counterfeit-V2.5_pruned.safetensors

多线程下载

axel -n 10 https://www.modelscope.cn/models/AI-ModelScope/Counterfeit-V2.5/resolve/master/Counterfeit-V2.5_pruned.safetensors 4. 在 modelscope 上下载模型 在指定仓库下载指定文件到指定目录,例如在仓库 livehouse/flux1-dev-fp8 下载模型 flux1-dev-fp8.safetensors 到指定目录 /ComfyUI/models/checkpoints 命令如下:

modelscope download --model 'livehouse/flux1-dev-fp8' flux1-dev-fp8.safetensors --local_dir '/ComfyUI/models/checkpoints' 详细使用说明请看模型下载

  1. 在 huggingface 上下载模型 token 为 hf_**** 在指定仓库下载指定模型,例如在仓库 openfree/flux-lora-korea-palace 下载模型 flux-lora-korea-palace.safetensors 到指定目录 /ComfyUI/models/loras 命令如下:

huggingface-cli download openfree/flux-lora-korea-palace --include "flux-lora-korea-palace.safetensors" --local-dir /ComfyUI/models/loras --token hf_**** 6. 在 civitai 上下载模型 使用 aria2 下载模型,下载格式

aria2c -x16 -s16 -j16 -c -o <文件名> -d <本地路径> <下载链接> 使用 16 线程下载模型重命名为 CyberRealisticPony.safetensors 到指定目录 /ComfyUI/models/checkpoints

进入模型下载页面,点击下载,下载暂停,右键复制下载链接,命令如下:

aria2c -x16 -s16 -j16 -c -o CyberRealisticPony.safetensors -d /ComfyUI/models/checkpoints https://civitai-delivery-worker-prod.5ac0637cfd0766c97916cefa3764fbdf.r2.cloudflarestorage.com/model/6357/cyberrealisticponyV85.TgCf.safetensors?xxxx