- 欢迎使用专为nunchaku加速制作的单独仓库,仓库内包含了最新nunchaku的Int4模型,包括int4-t5模型,以及原版的flux-fp8模型
- 经过实测和调试有几个问题,L20上使用nunchaku的lora加载器加载flux系列lora,运行工作流会自动开始转换,但是转换速度较慢
- 具体原因未知,可能是CPU或者L20显卡的问题,网上各种UP教程也没有用L20的,云平台像RH这种也是40系显卡,等开发者后续处理
2025/06/30
- 2025.06.30 已经更新最新版本ComfyUI版本,nunchaku插件版本,支持最新的nunchaku-kontext模型
- 2025.06.10 更新仓库并且发布了Pulid的配套演示视频
- 2025.06.08 修复nunchaku-Pulid路径错误的问题
- 2025/06/05 ComfyUI镜像更新
- 升级版本到最新v0.3.40
- nunchaku版本0.3.0
- 恢复下载脚本(xiazai)
- fork仓库后点击"AI-创作启动",进入云开发环境后,自动运行ComfyUI后台,等待出现
open按钮,点击即可进入操作页面
- 手动启动方式,在后台
bash终端中输入小写字母cnb或者qd回车,即可正常运行启动程序。
- 点击
xiazai.ipynb 内有提示说明,只需替换你需要下载的链接即可
- 脚本内标注名字的模型均来自cnb模型仓库"ai-mod" 使用腾讯内网高速下载
本镜像基于开源社区内容制作免费公开分享
镜像可能包含第三方软件或组件,其版权及许可条款由原作者所有。使用者应自行核实并遵守相关许可要求。作者不对第三方内容的功能或合法性负责。
本镜像按“原样”提供,作者不承诺其完整性、适用性或安全性。使用者需自行承担所有风险,作者对因使用或无法使用镜像导致的任何直接、间接损失概不负责(包括但不限于数据丢失、系统损坏、业务中断等)。
使用者需确保遵守所在国家/地区的法律法规。若因使用本镜像违反法律或侵犯第三方权益,使用者需独立承担全部责任,与镜像提供者无关。
任何基于本镜像修改或衍生的版本,均与本镜像提供者无关,相关责任由修改者自行承担。
如不同意本声明,请立即删除镜像。继续使用即视为接受上述条款。