Your browser does not support the video tag.
Neta Lumina 是由捏Ta实验室(Neta.art)训练的高品质二次元风格图像生成模型。我们基于上海人工智能实验室 Alpha-VLLM 团队开源的 Lumina-Image-2.0,利用海量、高质量的二次元风格图像及多语种标签数据,使模型具备强大的需求理解与诠释能力,非常适合插画、海报、分镜、角色设计等场景。
- 针对多样化创作场景进行优化,如 Furry、国风、宠物等
- 支持众多角色与风格,包括热门和冷门设定
- 准确理解自然语言,具备优秀的复杂提示词遵循能力
- 原生支持多语言,推荐优先使用中文、英文和日文
该模型采用基于 Diffusion Transformer 的 Lumina2 框架,与 Stable Diffusion 模型不同,请务必按本文档进行配置。
目前 Neta Lumina 仅支持在 ComfyUI 平台使用:
-
Neta Lumina-Beta
-
文本编码器(Gemma-2B)
-
VAE 模型(16 通道 FLUX VAE)
对应工作流:lumina_workflow.json(在 ComfyUI 中加载该 JSON 文件即可)

- UNETLoader:加载模型文件
- VAELoader:加载 ae.safetensors
- CLIPLoader:加载 gemma_2_2b_fp16.safetensors
- Text Encoder:输出分别连接采样器的正向/负向条件
下载 neta-lumina-v1.0
使用 ComfyUI 默认工作流即可
推荐参数(Recommended Settings)
- 采样器:res_multistep
- 调度器:linear_quadratic
- 采样步数:30
- CFG(提示词引导强度):4~5.5
- EmptySD3LatentImage:推荐分辨率为 1024×1024、768×1532 或 968×1322
Neta Anime Lumina绘图模型提示词指南
社区(Community)
我们主要在以下方面进行模型本身的开发
- 持续训练基础模型,提升智能水平。
- 迭代美学数据集,优化肢体表现、背景丰富度及画面整体美观度。
- 开发更智能、多样化的打标工具,降低用户创作门槛。
关于模型生态,我们会准备
- LoRA 训练教程和相应组件
- 虽然当前 Neta Lumina-Beta 尚未完全成熟,但有经验的用户可以尝试基于 Lumina-Image-2.0 的开源训练代码自行微调。
- 精细化控制、形象/风格一致化等能力(如 Omini Control)的开发,欢迎发起或者参与。
模型许可证与使用声明(License & Disclaimer)
参与者与贡献者(Participants & Contributors)
- 特别鸣谢:感谢上海AI实验室 Alpha-VLLM 课题组开源了 Lumina-Image-2.0 。该模型的推出为社区提供了强大的视觉生成框架,我们基于此进行了二次元领域的定向训练。在此特别感谢 Lumina 项目的作者们为开源做出的贡献。
- 模型开发团队:捏Ta 实验室 Neta.art Lab Civitai 主页
- 合作伙伴
- **Narugo1992**: 感谢 [narugo1992](https://github.com/narugo1992) 和 [deepghs](https://huggingface.co/deepghs) 团队开源了各种训练集、图像处理工具和模型。
- **Mikubill**:感谢 [Mikubill](https://github.com/Mikubill) 的 [Naifu](https://github.com/Mikubill/naifu) 训练师。
- 评测和开发: 二小姐, spawner, Rnglg2
- 其他贡献者:沉迷摸鱼, poi, AshenWitch, 十分无奈, GHOSTLX, wenaka, iiiiii, 年糕特工队, 恩匹希, 奶冻, mumu, yizyin, smile, Yang, 古神, 灵之药, LyloGummy, 雪时
附录与扩展资源(Appendix & Resources)