logo
0
0
Login
Forkfromhex/ai/llama-factory-space, ahead:main2 commits

llama-factory-space

LLaMA Board 运行环境

这是 https://github.com/hiyouga/LLaMA-Factory 在 CNB 的运行时。零帧起手,2 分钟开启 LLM 微调训练环境。

教程

1、新建项目,创建 .cnb.yml 文件,保存后创建云开发环境。

$: vscode: - docker: image: docker.cnb.cool/hex/ai/llama-factory-space:latest runner: cpus: 16 tags: cnb:arch:amd64:gpu services: - vscode - docker stages: - name: ls script: ls -al

2、启动 WEBUI

使用下面的命令启动 WEBUI,会自动创建端口转发,通过端口转发方式访问 WEBUI 即可。

llamafactory-cli webui

目录说明

  • 模型目录,建议:/workspace/
  • LLaMA-Factory 的 demo 数据集路径:/root/LLaMA-Factory/data
  • 输出目录,建议:/workspace/export/ (需要手动创建)

About

https://github.com/hiyouga/LLaMA-Factory @ CNB

Language
Dockerfile84.8%
Python12.4%
Shell2.8%