logo
1
0
Login
run25xgo
ForkfromAIxcnb/ComfyUI_models_run25x, ahead:run25xgo1 commits, behind:run25xgo3 commits

ComfyUI-Models Run++

Static Badge

Static Badge Static Badge Static Badge

🎯「ComfyUI软链版秒级启动」700G+模型库、100+插件、工作流一键注入

🎭 「Fork 即开即用」 「动态热插拔 LoRA模型」 「模型插件空间零焦虑」 「CodeBuddy AI代码加持」💡🎯🚀

这是一个 ComfyUI 的即开即用学习解决方案,集成了cnb内网模型库700G+、插件100+、示例工作流N+。本仓库通过Fork模型库和启动库,提供了一个超小白开箱「秒级」享用的 ComfyUI 环境,最少占用本地仓库空间,体验自定义动态级lora模型加载,cnb云原生极速启动的快感。

你的第一个 AI 绘画作品,不该卡在环境配置和模型上 —— Fork 这个 “ComfyUI-Models Run” 帮你把模型、插件、工作流基本全搭好,小白拧钥匙就能发车!实现模型「云本地」无感调用,CNB 引擎带你秒级启动 ComfyUI,软链接LoRA换脸比换滤镜还快!


🌐【介绍】 Fork AI-models大模型库 + ComfyUI 启动镜像 + 动态缓存模型


🎯【分支】

选择不同的分支即可选择不同的 ComfyUI 环境;

各个分支及其环境仓库链接:

  • run25x:fork集成AI-models大模型库 和 启动镜像 ComfyUICodeBuddy,执行lora目录级别软链接 【持续测试】
  • run25xgo:自定义ComfyUI 启动镜像,示例替换如comfyui_gosha大佬启动源镜像,手动软链接模型
  • run25xcnb:同步更新models模型库 ComfyUI【待更新】

环境中内置自定义节点+工作流,不断更新!

🚀【使用】

自动启动

  1. 右上角点击Fork本仓库
  2. 点击起飞按钮,进入WebIDE云原生空间.
  3. 自动执行启动ComfyUI,PORTS终端选择8188端口运行ComfyUI.

重启ComfyUI

  1. 在自动打开的start_ComfyUI.ipynb文件鼠标滚动下拉.
  2. 看到【点击下方代码前的按钮▶,重启ComfyUI】,运行该文字下方代码.
  3. 选择运行环境:Python Environments..base (Python 3.11.12)/opt/conda/bin/python.
  4. 重新启动完成后点击控制台输出的 http://0.0.0.0:8188 链接.
  5. 或运行 python main.py --disable-metadata --listen 0.0.0.0 --port 8188

📌【提醒】

云原生启动耗时本地测试基本 10-20s 内完成

如云原生启动迟滞,应马上关闭云原生构建,并同时停止 endStages,再重新启动跳过拉取模型阶段基本秒进 如上游dock启动有更新第一次需有一定时长或按上述操作尝试 增加模型建议先建新分支测试

⚠️ 【问题】:

1.ComfyUI无显示checkpoints模型

创建一个名为checkpoints的符号链接,指向checkpoint目录 运行 ln -s /workspace/models/checkpoint /workspace/models/checkpoints

2.替换镜像源后自动脚本失效

需查看根目录结构是否匹配app/ComfyUI脚本设置

🎯 新增【软链接模型库】🎯🔥

【不占用本地仓库大小】 【设置软链接临时模型】 【拉取文件后保存在缓存空间】 【自定义管理删除缓存文件】

bash /workspace/scripts/models_lora.sh
bash /workspace/scripts/models_lfs.sh

📌目录级别链接(自定义管理缓存lora模型)

【models_lora.sh】

功能:

  • 专为模型目录设计的软链接脚本,支持多仓库配置
  • 使用Git稀疏检出技术,只下载指定路径的内容
  • 自动处理已存在的软链接和目录结构
  • 日志文件保存在/workspace/app/目录下

使用方式:

  1. 在REPOS数组中配置多个仓库
  2. 运行脚本:bash /workspace/scripts/models_lora.sh
  3. 查看日志:cat /workspace/app/repo_lora.log
REPOS示例配置: RE /workspace/scripts/models_lfs.sh POS=( "loras https://cnb.cool/repo-url /app/ComfyUI/models/loras/zou models/loras/" "unet https://cnb.cool/other-repo /app/ComfyUI/models/unet/aix models/unet/" # 可在此处添加更多仓库配置 # "模型名称 仓库URL 目标链接目录 稀疏检出路径" )

📌文件级别链接(lfs大模型文件谨慎使用,受限于缓存空间)

【models_lfs.sh】

功能:

  • 专为.safetensors文件设计的软链接脚本
  • 自动检查重复文件避免重复处理
  • 支持Git LFS大文件
  • 日志文件保存在/workspace/app/目录下

使用方式:

  1. 配置仓库URL、目标目录和临时目录
  2. 运行脚本:bash /workspace/scripts/models_lfs.sh
  3. 查看日志:cat /workspace/app/repo_lfs.log
REPOS示例配置: REPOS=( "kontext https://cnb.cool/ai-models/Comfy-Org/flux1-kontext-dev_ComfyUI/ /app/ComfyUI/models/diffusion_models split_files/diffusion_models/ flux1-dev-kontext_fp8_scaled.safetensors safetensors" # 可在此处添加更多仓库配置 # "模型名称 仓库URL 目标链接目录 文件 稀疏检出路径" )

⚠️ 注意事项:

  • 确保目标目录路径正确有写入权限
  • 首次拉取需要时间克隆仓库
  • 重复运行会自动跳过已存在文件
  • 报错可查看日志询问codebuddy代码助手

⚠️ 脚本分析结果:(如仓库重建后缓存已清空,就重新执行一次软链接命令)

  1. 当前脚本行为: 脚本已经默认保留临时目录中的缓存文件 这样可以确保软链接在下次启动时仍然有效 如果检测到有效的软链接,脚本会跳过处理

  2. 缓存管理说明: 缓存文件存储在 /tmp/cnb_repo_*/ 目录下 默认情况下这些文件会一直保留 如果需要手动清理,可以使用以下命令:

查看缓存 ls -la /tmp | grep cnb_repo 清理所有缓存 rm -rf /tmp/cnb_repo_*/ 清理指定仓库缓存(如loras) rm -rf /tmp/cnb_repo_loras/
  1. 建议: 如果临时目录空间不足,可以手动清理不用的缓存 脚本日志文件 /app/repo_lora.log 记录了详细的操作信息

🎯 新增【系统空间监控】🎯

【system_info.sh】

功能:

  • 系统存储空间分析
  • 临时目录缓存检查
  • GPU资源监控
  • 系统信息汇总

使用方式: 1.运行脚本:bash /workspace/system_info.sh 2.如果脚本没有执行权限,需要先添加: chmod +x system_info.sh 3.输出系统空间使用情况 监控GPU使用情况和温度 检查缓存文件占用情况 脚本使用彩色输出和格式化布局,使信息易于阅读和理解,特别适合需要快速了解系统资源状态的场景。

示例 检查系统信息汇总: 1. 系统存储空间 根文件系统(overlay): 总容量256GB,已使用75GB(29%),可用182GB(71%) 工作空间(git-clone-yyds): 总容量1.6TB,几乎全部可用(使用率仅1%) 系统存储空间充足,不存在存储瓶颈 2. 临时目录缓存 发现两个cnb_repo相关目录:cnb_repo_loras(72.78GB)和cnb_repo_unet(476KB) cnb缓存总大小约72.78GB 相对于1.6TB的工作空间,缓存占用比例较小,空间充足 系统显示"cnb缓存空间充足,拧钥匙发动",表示缓存状态良好 3. GPU资源使用情况 GPU型号: NVIDIA H20 驱动/CUDA版本: 535.216.01 / 12.2 GPU内存使用: 8370MiB / 97871MiB (使用率8.6%) GPU利用率: 99% 温度/功耗: 43°C / 306W (最大500W) 虽然GPU利用率很高(99%),但内存使用率很低(8.6%),系统评价为"显卡内存空闲快到起飞" 总体评估: 系统资源状态良好,存储空间充足,GPU虽然处于高负载状态但内存占用低,适合继续运行计算密集型任务。临时缓存占用合理,不会对系统性能造成负面影响。

🤝 ComfyUI 启动库 🎖️

复刻于 https://cnb.cool/comfyui_gosha/comfyui_flows_base.git

📖 介绍

  • 自动增删改配置:
    • models模型
    • custom_nodes预处理器模型
    • 用户工作流
  • 自动保存云服务器下载的模型到代码库(⚠️ 注意存储容量限制)
  • 缺失的预处理器模型第一次使用时会自动下载,关机之后会保存到代码库中。
  • 逐步内置大量通用模型,请及时查看同步更新。

✨ 特性

  • � 一键启动 ComfyUI
  • � 预配置常用模型
  • � 集成多个实用插件
  • 🛠️ 自动化脚本支持
  • ⚙️ 优化的默认配置

🔧 自动化功能

  • 自动保存工作流
  • 自动上传模型
  • 自动更新节点模型
  • 快速链接配置

🤝 ComfyUI 公益模型库 🎖️

fork于 https://cnb.cool/ai-models/zhanzhangtuijian/ComfyUI_models.git

假设本仓库模型位于 /path/to/models 目录

docker run -it --gpus all
-p 8188:8188
-v /path/to/models:/opt/ComfyUI/models
your-comfyui-image

📋 模型库目录结构

以下是模型库的主要目录结构,展示了可用的模型类别:

models/ ├── BEN # BEN模型 (Berkeley Efficient Networks) - Berkeley开发,用于高效图像处理 ├── BiRefNet # BiRefNet图像增强模型 - 用于图像质量提升和细节增强 │ └── RMBG-2.0/model.safetensors # 背景移除模型 ├── Joy_caption # Joy图像描述模型 - 腾讯开发,用于中文图像描述生成 │ └── text_model/adapter_model.safetensors # 文本适配器模型 ├── LLM # 大语言模型 - 包含各种开源语言模型,用于自然语言处理 │ └── Florence-2-large-PromptGen-v2.0/model.safetensors # Florence大型提示生成模型 ├── Yolov8 # Yolov8目标检测模型 - Ultralytics开发,用于实时目标检测 ├── brushnet # Brushnet图像修复模型 - 用于智能图像修复和编辑 │ ├── brushnet_random_mask_fp16.safetensors # 随机遮罩修复模型 │ └── brushnet_segmentation_mask_fp16.safetensors # 分割遮罩修复模型 ├── checkpoint # Stable Diffusion检查点 - Stability AI开发的图像生成模型 │ ├── flux1-dev-fp8.safetensors # Flux开发版模型 │ ├── sd_xl_base_1.0_0.9vae.safetensors # SDXL基础模型 │ └── v1-5-pruned-emaonly.safetensors # SD1.5精简版模型 ├── clip # CLIP文本编码器模型 - OpenAI开发,用于文本-图像理解 │ ├── ViT-L-14-TEXT-detail-improved-hiT-GmP-HF.safetensors # 改进的ViT文本编码器 │ ├── clip_g.safetensors # CLIP-G模型 │ ├── clip_l.safetensors # CLIP-L模型 │ ├── clip_vision_h.safetensors # CLIP-H视觉模型 │ └── t5xxl_fp16.safetensors # T5-XXL压缩模型 ├── clip_vision # CLIP视觉编码器模型 - OpenAI开发,用于图像特征提取 │ ├── CLIP-ViT-H-14-laion2B-s32B-b79K.safetensors # LAION训练的ViT-H模型 │ ├── IP-adapter/image_encoder_sd1.5.safetensors # IP-Adapter图像编码器 │ └── clip_vision_l.safetensors # CLIP-L视觉模型 ├── configs # 配置文件 │ └── (包含v1/v2推理配置和anything_v3等模型配置) ├── controlnet # ControlNet模型 - Stanford开发,用于可控图像生成 │ ├── flux # Flux ControlNet模型 - 用于高质量图像生成控制 │ │ ├── FLUX.1-dev-ControlNet-Union-Pro-2.0.safetensors # Flux联合控制模型2.0 │ │ └── FLUX.1-dev-ControlNet-Union-Pro.safetensors # Flux联合控制模型 │ ├── instantID # InstantID人脸编辑模型 - 用于精确人脸编辑 │ │ └── diffusion_pytorch_model.safetensors # InstantID扩散模型 │ ├── sd15 # SD1.5 ControlNet - 支持多种控制条件(边缘/深度/布局) │ ├── sd35 # SD3.5 ControlNet - 新一代控制模型 │ │ ├── sd3.5_large_controlnet_blur.safetensors # 模糊控制模型 │ │ ├── sd3.5_large_controlnet_canny.safetensors # 边缘控制模型 │ │ └── sd3.5_large_controlnet_depth.safetensors # 深度控制模型 │ └── xl # SDXL ControlNet - 适配SDXL的控制模型 │ ├── controlnet-union-promax-sdxl-1.0.safetensors # SDXL联合控制增强版 │ └── controlnet-union-sdxl-1.0.safetensors # SDXL联合控制标准版 ├── depth # 深度估计模型 - 用于3D场景理解 │ └── ml-depth-pro/depth_pro.fp16.safetensors # 专业级深度估计模型 ├── depthanything # Depth Anything深度估计模型 - 通用深度估计 │ ├── depth_anything_v2_vitb_fp16.safetensors # ViT-B变体 │ ├── depth_anything_v2_vitl_fp16.safetensors # ViT-L变体 │ └── depth_anything_v2_vits_fp16.safetensors # ViT-S变体 ├── diffbir # DiffBIR图像修复模型 - 基于扩散模型的图像修复 ├── diffusers # Diffusers格式模型 - HuggingFace开发的扩散模型框架 │ ├── MimicMotion/svd_xt_1_1.safetensors # 动作模仿模型 │ ├── controlnext # ControlNext控制模型 │ │ ├── controlnext-svd_v2-controlnet-fp16.safetensors # 控制网络 │ │ └── controlnext-svd_v2-unet-fp16.safetensors # UNet网络 │ └── hunyuan3d # 混元3D模型 - 腾讯开发 │ ├── text_encoder/model.safetensors # 文本编码器 │ ├── unet/diffusion_pytorch_model.safetensors # UNet模型 │ └── vae/diffusion_pytorch_model.safetensors # VAE模型 ├── diffusion_models # 扩散模型 │ ├── Wan2.1-Fun-Control-14B_fp8_e4m3fn.safetensors # Wan2.1控制模型 │ ├── Wan2_1-FLF2V-14B-720P_fp8_e4m3fn.safetensors # 720P视频生成 │ ├── Wan2_1-I2V-14B-480P_fp8_e4m3fn.safetensors # 480P图生视频 │ └── Wan2_1-T2V-14B_fp8_e4m3fn.safetensors # 文本生成视频 ├── embeddings # 文本嵌入模型 - 用于文本特征表示 ├── facedetection # 人脸检测模型 - 用于人脸定位和识别 ├── facerestore_models # 人脸修复模型 │ └── (包含GFPGAN/CodeFormer等,用于人脸修复和增强) ├── facexlib # 人脸处理库 - 提供全面的人脸分析功能 ├── florence2 # Florence2视觉语言模型 - 微软开发的多模态模型 │ ├── base-PromptGen-v2.0/model.safetensors # 基础版提示生成 │ └── large-PromptGen-v2.0/model.safetensors # 大型提示生成 ├── fooocus_expansion # Fooocus扩展模型 - 用于提升Stable Diffusion生成质量 ├── gligen # GLIGEN布局控制模型 - 用于精确的图像布局控制 │ ├── gligen_sd14_textbox_pruned.safetensors # 文本框控制模型 │ └── gligen_sd14_textbox_pruned_fp16.safetensors # FP16优化版本 ├── grounding-dino # Grounding DINO目标检测模型 - IDEA研究院开发 ├── hypernetworks # 超网络模型 - 用于模型动态适应 ├── inpaint # 图像修复模型 │ ├── brushnet # Brushnet修复模型 - 智能图像修复 │ │ ├── random_mask_brushnet_ckpt.safetensors # 随机遮罩修复 │ │ └── segmentation_mask_brushnet_ckpt.safetensors # 分割遮罩修复 │ ├── fooocus_inpaint # Fooocus修复模型 - 高质量图像修复 │ │ ├── MAT_Places512_G_fp16.safetensors # 场景修复模型 │ │ └── fooocus_lama.safetensors # LaMa修复模型 │ └── powerpaint # PowerPaint修复模型 - Google开发 │ ├── diffusion_pytorch_model.safetensors # 扩散模型 │ └── powerpaint_v2_brushnet_fp16.safetensors # Brushnet集成版 ├── insightface # InsightFace人脸分析模型 - 深度学习人脸分析工具集 ├── instantid # InstantID人脸编辑模型 - 快速人脸编辑和生成 ├── interpolation # 插值模型 │ └── gimm-vfi # GIMM-VFI视频帧插值 - 用于视频流畅化 │ ├── flowformer_sintel_fp32.safetensors # 光流估计模型 │ ├── gimmvfi_f_arb_lpips_fp32.safetensors # 前向插值模型 │ └── gimmvfi_r_arb_lpips_fp32.safetensors # 反向插值模型 ├── ipadapter # IP-Adapter模型 - 用于个性化图像生成 │ ├── flux/flux-ip-adapter.safetensors # Flux专用适配器 │ ├── ip-adapter-plus-face_sdxl_vit-h.safetensors # SDXL人脸增强版 │ ├── ip-adapter-plus_sdxl_vit-h.safetensors # SDXL增强版 │ └── ip-adapter_sdxl_vit-h.safetensors # SDXL基础版 ├── lama # LaMa图像修复模型 - Samsung开发的大遮罩图像修复 ├── layer_model # 层模型 - 用于分层图像处理 │ ├── layer_sd15_bg2fg.safetensors # SD1.5背景到前景 │ ├── layer_sd15_fg2bg.safetensors # SD1.5前景到背景 │ ├── layer_xl_bg2ble.safetensors # SDXL背景混合 │ └── layer_xl_transparent_attn.safetensors # SDXL透明注意力 ├── layerstyle # 层样式模型 - 用于图像风格化 ├── liveportrait # LivePortrait人像动画模型 - 用于人像动画生成 │ ├── appearance_feature_extractor.safetensors # 外观特征提取器 │ ├── motion_extractor.safetensors # 运动提取器 │ ├── spade_generator.safetensors # SPADE生成器 │ └── warping_module.safetensors # 变形模块 ├── llama # Llama语言模型 - Meta开发的开源语言模型 │ └── (包含LLaVA多模态模型,支持视觉-语言任务) ├── loras # LoRA模型 - 微软开发的模型微调技术 │ ├── ACE++ # ACE++增强LoRA - 提升生成质量 │ │ ├── comfyui_local_lora16.safetensors # 本地增强 │ │ ├── comfyui_portrait_lora64.safetensors # 人像增强 │ │ └── comfyui_subject_lora16.safetensors # 主体增强 │ ├── LCM # Latent Consistency Model - 快速推理模型 │ │ ├── LCM-1.5-Lora.safetensors # SD1.5版本 │ │ └── LCM-XL-Lora.safetensors # SDXL版本 │ ├── flux_hyper # Flux超网络LoRA - 高级控制模型 │ │ ├── FLUX.1-Turbo-Alpha.safetensors # Turbo优化版 │ │ └── Hyper-FLUX.1-dev-8steps-lora.safetensors # 8步快速版 │ └── xl # SDXL专用LoRA - 适配SDXL的微调模型 │ └── add-detail-xl增加细节.safetensors # 细节增强LoRA ├── mediapipe # MediaPipe模型 - Google开发的多媒体处理框架 ├── mmaudio # 多模态音频模型 - 用于音频处理和合成 │ ├── mmaudio_large_44k_v2_fp16.safetensors # 44kHz音频处理 │ ├── mmaudio_synchformer_fp16.safetensors # 音频同步模型 │ └── mmaudio_vae_44k_fp16.safetensors # 音频VAE模型 ├── mmdets # 多模态检测模型 - OpenMMLab开发的检测工具集 ├── mvadapter # MV-Adapter视频适配器 - 用于视频处理 │ ├── mvadapter_i2mv_sdxl.safetensors # 图像到视频适配器 │ └── mvadapter_t2mv_sdxl.safetensors # 文本到视频适配器 ├── onnx # ONNX格式模型 - 微软开发的开放神经网络交换格式 ├── photomaker # PhotoMaker个性化模型 - 用于个性化照片生成 │ └── pulid_flux_v0.9.0.safetensors # PULID-Flux集成版 ├── pulid # PULID图像处理模型 - 用于图像增强和处理 │ ├── ip-adapter_pulid_sdxl_fp16.safetensors # SDXL适配器 │ └── pulid_flux_v0.9.1.safetensors # Flux集成版 ├── rembg # 背景移除模型 - 用于自动抠图 │ └── (包含u2net等多个变体,支持不同场景) ├── sam2 # SAM2分割模型 - Meta升级版分割模型 │ ├── sam2.1_hiera_base_plus-fp16.safetensors # Base+版本 │ ├── sam2.1_hiera_large-fp16.safetensors # Large版本 │ ├── sam2_hiera_small.safetensors # Small版本 │ └── sam2_hiera_tiny.safetensors # Tiny版本 ├── sams # SAM分割模型 - Meta开发的分割模型 │ └── (包含mobile_sam等轻量级变体) ├── style_models # 风格模型 - 用于艺术风格迁移 │ └── flux1-redux-dev.safetensors # Flux风格增强模型 ├── text_encoders # 文本编码器 - 用于文本特征提取 │ ├── open-clip-xlm-roberta-large-vit-huge-14_visual_fp16.safetensors # XLM-RoBERTa编码器 │ └── umt5-xxl-enc-fp8_e4m3fn.safetensors # UMT5-XXL编码器 ├── ultralytics # Ultralytics目标检测模型 - 商业级检测方案 │ ├── bbox # 边界框检测 - 物体定位 │ └── segm # 语义分割 - 场景理解 ├── unet # UNet模型 - 用于图像分割和生成 │ ├── IC_Light_ldm # IC Light LDM变体 │ │ ├── iclight_sd15_fbc_unet_ldm.safetensors # FBC变体 │ │ └── iclight_sd15_fc_unet_ldm.safetensors # FC变体 │ ├── IC_light # IC Light标准变体 │ │ ├── iclight_sd15_fbc.safetensors # FBC变体 │ │ └── iclight_sd15_fc.safetensors # FC变体 │ ├── UltiUpscale.safetensors # 终极上采样模型 │ ├── flux1-dev-fp8.safetensors # Flux开发版 │ └── sd3.5_large.safetensors # SD3.5大型模型 ├── upscale_models # 图像上采样模型 │ ├── OmniSR_X2_DIV2K.safetensors # 2倍放大模型 │ ├── OmniSR_X3_DIV2K.safetensors # 3倍放大模型 │ └── OmniSR_X4_DIV2K.safetensors # 4倍放大模型 ├── vae # VAE模型 - 变分自编码器 │ ├── Wan2_1_VAE_bf16.safetensors # Wan2.1 BF16精度 │ ├── Wan2_1_VAE_fp32.safetensors # Wan2.1 FP32精度 │ ├── sd3.5vae.safetensors # SD3.5专用VAE │ ├── sdxl_vae.safetensors # SDXL专用VAE │ └── vae-ft-mse-840000-ema-pruned.safetensors # 优化训练VAE ├── vae_approx # VAE近似模型 - 用于加速VAE推理 ├── vitmatte # VitMatte抠图模型 - 基于Vision Transformer的抠图 │ └── model.safetensors # 主要模型文件 ├── yolo # YOLO目标检测模型 - Joseph Redmon开创 │ └── (包含v8/v9多个变体,用于实时检测) ├── yolo-world # YOLO-World通用检测器 - 开放词表目标检测 └── yolo_world # YOLO-World扩展模型 - 增强版通用检测器

常见的 AI 模型,CNB 官方会存储到AI Models 组织下,方便在 CNB 中内网快速拉取。模型文件来自开源社区,请遵守各模型使用协议及核对文件安全性。

https://cnb.cool/ai-models

AI Models/zhanzhangtuijian

https://cnb.cool/ai-models/zhanzhangtuijian/ComfyUI_models.git

https://cnb.cool/ai-models/zhanzhangtuijian/ComfyUI_models_repack1.git

https://cnb.cool/ai-models/zhanzhangtuijian/ComfyUI_models_repack2.git

⚠️ 注意事项 【本仓库为个人学习使用,fork请遵守各模型使用协议】

  1. 首次运行时,脚本会自动下载必要的模型和依赖
  2. 首次启动云原生开发时间如超过10s迟滞,则关闭云原生构建同时停止endStages,并重新启动
  3. 部分插件功能可能需要不同CUDA支持
  4. 可以自定义选择启动镜像
  5. 同为小白非程序员,遇到报错先询问codebuddy代码助手

🎯 讨论

通过 “临时目录仓库 + 软链接” 的方式,模型更新无需修改目标路径的结构,仅需通过git pull同步临时目录,即可实现软链接对最新内容的自动指向。这种方式兼顾了便捷性、版本可控性和空间效率,特别适合需要频繁更新模型文件的场景(如替换 LoRA 模型、深度学习预训练模型等)。 扩展:如何自动化更新? 若需定期自动更新,可结合crontab(定时任务)实现:

🤝 贡献

❤️ 致谢 cnb: 各个大佬

欢迎提交 Issue 和 Pull Request!

About

一个 [ComfyUI 软链版] 即开即用学习解决方案,开箱「秒级」享用,集成cnb内网模型库 700G+、插件100+、示例工作流,体验你自定义动态级lora模型加载、cnb云原生极速启动的飞起 🚀

Language
Python4.1%
Markdown0.4%
Shell0.2%
gitignore0%
Others95.3%