logo
5
0
Login
Forkfromai-models/zhanzhangtuijian/ComfyUI_models, ahead:main6 commits

🤝 CNB官方 ComfyUI 公益模型库 AI-MODELS

本模型库fork至 https://cnb.cool/ai-models/zhanzhangtuijian/ComfyUI_models.git

可fork后自行构建工作流启动库 【fork不计算占用本地仓库空间】

假设本仓库模型位于 /path/to/models 目录

docker run -it --gpus all
-p 8188:8188
-v /path/to/models:/opt/ComfyUI/models
your-comfyui-image

📋 模型库目录结构

以下是模型库的主要目录结构,展示了可用的模型类别:

models/ ├── BEN # BEN模型 (Berkeley Efficient Networks) - Berkeley开发,用于高效图像处理 ├── BiRefNet # BiRefNet图像增强模型 - 用于图像质量提升和细节增强 │ └── RMBG-2.0/model.safetensors # 背景移除模型 ├── Joy_caption # Joy图像描述模型 - 腾讯开发,用于中文图像描述生成 │ └── text_model/adapter_model.safetensors # 文本适配器模型 ├── LLM # 大语言模型 - 包含各种开源语言模型,用于自然语言处理 │ └── Florence-2-large-PromptGen-v2.0/model.safetensors # Florence大型提示生成模型 ├── Yolov8 # Yolov8目标检测模型 - Ultralytics开发,用于实时目标检测 ├── brushnet # Brushnet图像修复模型 - 用于智能图像修复和编辑 │ ├── brushnet_random_mask_fp16.safetensors # 随机遮罩修复模型 │ └── brushnet_segmentation_mask_fp16.safetensors # 分割遮罩修复模型 ├── checkpoint # Stable Diffusion检查点 - Stability AI开发的图像生成模型 │ ├── flux1-dev-fp8.safetensors # Flux开发版模型 │ ├── sd_xl_base_1.0_0.9vae.safetensors # SDXL基础模型 │ └── v1-5-pruned-emaonly.safetensors # SD1.5精简版模型 ├── clip # CLIP文本编码器模型 - OpenAI开发,用于文本-图像理解 │ ├── ViT-L-14-TEXT-detail-improved-hiT-GmP-HF.safetensors # 改进的ViT文本编码器 │ ├── clip_g.safetensors # CLIP-G模型 │ ├── clip_l.safetensors # CLIP-L模型 │ ├── clip_vision_h.safetensors # CLIP-H视觉模型 │ └── t5xxl_fp16.safetensors # T5-XXL压缩模型 ├── clip_vision # CLIP视觉编码器模型 - OpenAI开发,用于图像特征提取 │ ├── CLIP-ViT-H-14-laion2B-s32B-b79K.safetensors # LAION训练的ViT-H模型 │ ├── IP-adapter/image_encoder_sd1.5.safetensors # IP-Adapter图像编码器 │ └── clip_vision_l.safetensors # CLIP-L视觉模型 ├── configs # 配置文件 │ └── (包含v1/v2推理配置和anything_v3等模型配置) ├── controlnet # ControlNet模型 - Stanford开发,用于可控图像生成 │ ├── flux # Flux ControlNet模型 - 用于高质量图像生成控制 │ │ ├── FLUX.1-dev-ControlNet-Union-Pro-2.0.safetensors # Flux联合控制模型2.0 │ │ └── FLUX.1-dev-ControlNet-Union-Pro.safetensors # Flux联合控制模型 │ ├── instantID # InstantID人脸编辑模型 - 用于精确人脸编辑 │ │ └── diffusion_pytorch_model.safetensors # InstantID扩散模型 │ ├── sd15 # SD1.5 ControlNet - 支持多种控制条件(边缘/深度/布局) │ ├── sd35 # SD3.5 ControlNet - 新一代控制模型 │ │ ├── sd3.5_large_controlnet_blur.safetensors # 模糊控制模型 │ │ ├── sd3.5_large_controlnet_canny.safetensors # 边缘控制模型 │ │ └── sd3.5_large_controlnet_depth.safetensors # 深度控制模型 │ └── xl # SDXL ControlNet - 适配SDXL的控制模型 │ ├── controlnet-union-promax-sdxl-1.0.safetensors # SDXL联合控制增强版 │ └── controlnet-union-sdxl-1.0.safetensors # SDXL联合控制标准版 ├── depth # 深度估计模型 - 用于3D场景理解 │ └── ml-depth-pro/depth_pro.fp16.safetensors # 专业级深度估计模型 ├── depthanything # Depth Anything深度估计模型 - 通用深度估计 │ ├── depth_anything_v2_vitb_fp16.safetensors # ViT-B变体 │ ├── depth_anything_v2_vitl_fp16.safetensors # ViT-L变体 │ └── depth_anything_v2_vits_fp16.safetensors # ViT-S变体 ├── diffbir # DiffBIR图像修复模型 - 基于扩散模型的图像修复 ├── diffusers # Diffusers格式模型 - HuggingFace开发的扩散模型框架 │ ├── MimicMotion/svd_xt_1_1.safetensors # 动作模仿模型 │ ├── controlnext # ControlNext控制模型 │ │ ├── controlnext-svd_v2-controlnet-fp16.safetensors # 控制网络 │ │ └── controlnext-svd_v2-unet-fp16.safetensors # UNet网络 │ └── hunyuan3d # 混元3D模型 - 腾讯开发 │ ├── text_encoder/model.safetensors # 文本编码器 │ ├── unet/diffusion_pytorch_model.safetensors # UNet模型 │ └── vae/diffusion_pytorch_model.safetensors # VAE模型 ├── diffusion_models # 扩散模型 │ ├── Wan2.1-Fun-Control-14B_fp8_e4m3fn.safetensors # Wan2.1控制模型 │ ├── Wan2_1-FLF2V-14B-720P_fp8_e4m3fn.safetensors # 720P视频生成 │ ├── Wan2_1-I2V-14B-480P_fp8_e4m3fn.safetensors # 480P图生视频 │ └── Wan2_1-T2V-14B_fp8_e4m3fn.safetensors # 文本生成视频 ├── embeddings # 文本嵌入模型 - 用于文本特征表示 ├── facedetection # 人脸检测模型 - 用于人脸定位和识别 ├── facerestore_models # 人脸修复模型 │ └── (包含GFPGAN/CodeFormer等,用于人脸修复和增强) ├── facexlib # 人脸处理库 - 提供全面的人脸分析功能 ├── florence2 # Florence2视觉语言模型 - 微软开发的多模态模型 │ ├── base-PromptGen-v2.0/model.safetensors # 基础版提示生成 │ └── large-PromptGen-v2.0/model.safetensors # 大型提示生成 ├── fooocus_expansion # Fooocus扩展模型 - 用于提升Stable Diffusion生成质量 ├── gligen # GLIGEN布局控制模型 - 用于精确的图像布局控制 │ ├── gligen_sd14_textbox_pruned.safetensors # 文本框控制模型 │ └── gligen_sd14_textbox_pruned_fp16.safetensors # FP16优化版本 ├── grounding-dino # Grounding DINO目标检测模型 - IDEA研究院开发 ├── hypernetworks # 超网络模型 - 用于模型动态适应 ├── inpaint # 图像修复模型 │ ├── brushnet # Brushnet修复模型 - 智能图像修复 │ │ ├── random_mask_brushnet_ckpt.safetensors # 随机遮罩修复 │ │ └── segmentation_mask_brushnet_ckpt.safetensors # 分割遮罩修复 │ ├── fooocus_inpaint # Fooocus修复模型 - 高质量图像修复 │ │ ├── MAT_Places512_G_fp16.safetensors # 场景修复模型 │ │ └── fooocus_lama.safetensors # LaMa修复模型 │ └── powerpaint # PowerPaint修复模型 - Google开发 │ ├── diffusion_pytorch_model.safetensors # 扩散模型 │ └── powerpaint_v2_brushnet_fp16.safetensors # Brushnet集成版 ├── insightface # InsightFace人脸分析模型 - 深度学习人脸分析工具集 ├── instantid # InstantID人脸编辑模型 - 快速人脸编辑和生成 ├── interpolation # 插值模型 │ └── gimm-vfi # GIMM-VFI视频帧插值 - 用于视频流畅化 │ ├── flowformer_sintel_fp32.safetensors # 光流估计模型 │ ├── gimmvfi_f_arb_lpips_fp32.safetensors # 前向插值模型 │ └── gimmvfi_r_arb_lpips_fp32.safetensors # 反向插值模型 ├── ipadapter # IP-Adapter模型 - 用于个性化图像生成 │ ├── flux/flux-ip-adapter.safetensors # Flux专用适配器 │ ├── ip-adapter-plus-face_sdxl_vit-h.safetensors # SDXL人脸增强版 │ ├── ip-adapter-plus_sdxl_vit-h.safetensors # SDXL增强版 │ └── ip-adapter_sdxl_vit-h.safetensors # SDXL基础版 ├── lama # LaMa图像修复模型 - Samsung开发的大遮罩图像修复 ├── layer_model # 层模型 - 用于分层图像处理 │ ├── layer_sd15_bg2fg.safetensors # SD1.5背景到前景 │ ├── layer_sd15_fg2bg.safetensors # SD1.5前景到背景 │ ├── layer_xl_bg2ble.safetensors # SDXL背景混合 │ └── layer_xl_transparent_attn.safetensors # SDXL透明注意力 ├── layerstyle # 层样式模型 - 用于图像风格化 ├── liveportrait # LivePortrait人像动画模型 - 用于人像动画生成 │ ├── appearance_feature_extractor.safetensors # 外观特征提取器 │ ├── motion_extractor.safetensors # 运动提取器 │ ├── spade_generator.safetensors # SPADE生成器 │ └── warping_module.safetensors # 变形模块 ├── llama # Llama语言模型 - Meta开发的开源语言模型 │ └── (包含LLaVA多模态模型,支持视觉-语言任务) ├── loras # LoRA模型 - 微软开发的模型微调技术 │ ├── ACE++ # ACE++增强LoRA - 提升生成质量 │ │ ├── comfyui_local_lora16.safetensors # 本地增强 │ │ ├── comfyui_portrait_lora64.safetensors # 人像增强 │ │ └── comfyui_subject_lora16.safetensors # 主体增强 │ ├── LCM # Latent Consistency Model - 快速推理模型 │ │ ├── LCM-1.5-Lora.safetensors # SD1.5版本 │ │ └── LCM-XL-Lora.safetensors # SDXL版本 │ ├── flux_hyper # Flux超网络LoRA - 高级控制模型 │ │ ├── FLUX.1-Turbo-Alpha.safetensors # Turbo优化版 │ │ └── Hyper-FLUX.1-dev-8steps-lora.safetensors # 8步快速版 │ └── xl # SDXL专用LoRA - 适配SDXL的微调模型 │ └── add-detail-xl增加细节.safetensors # 细节增强LoRA ├── mediapipe # MediaPipe模型 - Google开发的多媒体处理框架 ├── mmaudio # 多模态音频模型 - 用于音频处理和合成 │ ├── mmaudio_large_44k_v2_fp16.safetensors # 44kHz音频处理 │ ├── mmaudio_synchformer_fp16.safetensors # 音频同步模型 │ └── mmaudio_vae_44k_fp16.safetensors # 音频VAE模型 ├── mmdets # 多模态检测模型 - OpenMMLab开发的检测工具集 ├── mvadapter # MV-Adapter视频适配器 - 用于视频处理 │ ├── mvadapter_i2mv_sdxl.safetensors # 图像到视频适配器 │ └── mvadapter_t2mv_sdxl.safetensors # 文本到视频适配器 ├── onnx # ONNX格式模型 - 微软开发的开放神经网络交换格式 ├── photomaker # PhotoMaker个性化模型 - 用于个性化照片生成 │ └── pulid_flux_v0.9.0.safetensors # PULID-Flux集成版 ├── pulid # PULID图像处理模型 - 用于图像增强和处理 │ ├── ip-adapter_pulid_sdxl_fp16.safetensors # SDXL适配器 │ └── pulid_flux_v0.9.1.safetensors # Flux集成版 ├── rembg # 背景移除模型 - 用于自动抠图 │ └── (包含u2net等多个变体,支持不同场景) ├── sam2 # SAM2分割模型 - Meta升级版分割模型 │ ├── sam2.1_hiera_base_plus-fp16.safetensors # Base+版本 │ ├── sam2.1_hiera_large-fp16.safetensors # Large版本 │ ├── sam2_hiera_small.safetensors # Small版本 │ └── sam2_hiera_tiny.safetensors # Tiny版本 ├── sams # SAM分割模型 - Meta开发的分割模型 │ └── (包含mobile_sam等轻量级变体) ├── style_models # 风格模型 - 用于艺术风格迁移 │ └── flux1-redux-dev.safetensors # Flux风格增强模型 ├── text_encoders # 文本编码器 - 用于文本特征提取 │ ├── open-clip-xlm-roberta-large-vit-huge-14_visual_fp16.safetensors # XLM-RoBERTa编码器 │ └── umt5-xxl-enc-fp8_e4m3fn.safetensors # UMT5-XXL编码器 ├── ultralytics # Ultralytics目标检测模型 - 商业级检测方案 │ ├── bbox # 边界框检测 - 物体定位 │ └── segm # 语义分割 - 场景理解 ├── unet # UNet模型 - 用于图像分割和生成 │ ├── IC_Light_ldm # IC Light LDM变体 │ │ ├── iclight_sd15_fbc_unet_ldm.safetensors # FBC变体 │ │ └── iclight_sd15_fc_unet_ldm.safetensors # FC变体 │ ├── IC_light # IC Light标准变体 │ │ ├── iclight_sd15_fbc.safetensors # FBC变体 │ │ └── iclight_sd15_fc.safetensors # FC变体 │ ├── UltiUpscale.safetensors # 终极上采样模型 │ ├── flux1-dev-fp8.safetensors # Flux开发版 │ └── sd3.5_large.safetensors # SD3.5大型模型 ├── upscale_models # 图像上采样模型 │ ├── OmniSR_X2_DIV2K.safetensors # 2倍放大模型 │ ├── OmniSR_X3_DIV2K.safetensors # 3倍放大模型 │ └── OmniSR_X4_DIV2K.safetensors # 4倍放大模型 ├── vae # VAE模型 - 变分自编码器 │ ├── Wan2_1_VAE_bf16.safetensors # Wan2.1 BF16精度 │ ├── Wan2_1_VAE_fp32.safetensors # Wan2.1 FP32精度 │ ├── sd3.5vae.safetensors # SD3.5专用VAE │ ├── sdxl_vae.safetensors # SDXL专用VAE │ └── vae-ft-mse-840000-ema-pruned.safetensors # 优化训练VAE ├── vae_approx # VAE近似模型 - 用于加速VAE推理 ├── vitmatte # VitMatte抠图模型 - 基于Vision Transformer的抠图 │ └── model.safetensors # 主要模型文件 ├── yolo # YOLO目标检测模型 - Joseph Redmon开创 │ └── (包含v8/v9多个变体,用于实时检测) ├── yolo-world # YOLO-World通用检测器 - 开放词表目标检测 └── yolo_world # YOLO-World扩展模型 - 增强版通用检测器

常见的 AI 模型,会存储到AI Models 组织下,方便在 CNB 中内网快速拉取。模型文件来自开源社区,请遵守各模型使用协议及核对文件安全性。

https://cnb.cool/AIxcnb/models/ComfyUI_models.git

https://cnb.cool/ai-models/zhanzhangtuijian/ComfyUI_models_repack1.git

https://cnb.cool/ai-models/zhanzhangtuijian/ComfyUI_models_repack2.git

cnb:AI Models/zhanzhangtuijian

https://space.bilibili.com/175365958

About

CNB官方 AI-MODELS ComfyUI 公益模型库

Language
Python3.6%
Markdown0.4%
Cuda0%
gitignore0%
Others96%