logo
0
0
WeChat Login

为了方便在CloudStudio是使用一些脚本,故在此更新。

# nosleep POC ## 使用方式 1. 前台任务:`nosleep ${CMD}`,比如 `nosleep sleep 1000`; 2. 后台任务:`nohup nosleep ${CMD} &`,比如 `nohup nosleep sleep 10000 > task.log 2>&1 &`; 说明:后台任务需要从日志文件比如 task.log 查看程序的标准输出和错误输出;后台任务能保障关闭浏览器后任务仍旧运行; ## 思路 1. 用户通过“设置 --> 访问令牌 --> 新增访问令牌”(不需要勾选任何权限),获取访问令牌; 2. 设置访问令牌环境变量 `export CS_HEALTHZ_TOKEN=xxx`; 3. 通过上文使用方式执行任务,比如,假设训练任务的命令是 `python train.py`,则执行 `nosleep python train.py`; ## vitejs 的 host 配置

// vite.config.js export default { server: { // 监听所有网络接口 host: '0.0.0.0', // 允许所有主机访问 allowedHosts: true, // 可选:指定端口(默认是 5173) port: 3000 } }

```bash kill -9 $(lsof -ti:3001) 2>/dev/null; sleep 2; npm start

install uv

uv venv --python 3.12 --seed
source .venv/bin/activate
uv pip install vllm --torch-backend=auto

Install vLLM with CUDA 12.8.

pip install vllm --extra-index-url https://download.pytorch.org/whl/cu128

Install vLLM with a specific CUDA version (e.g., 11.8 or 12.6).

export VLLM_VERSION=$(curl -s https://api.github.com/repos/vllm-project/vllm/releases/latest | jq -r .tag_name | sed 's/^v//') export CUDA_VERSION=118 # or 126 uv pip install https://github.com/vllm-project/vllm/releases/download/v${VLLM_VERSION}/vllm-${VLLM_VERSION}+cu${CUDA_VERSION}-cp38-abi3-manylinux1_x86_64.whl --extra-index-url https://download.pytorch.org/whl/cu${CUDA_VERSION}

获取部署地址:

${X_IDE_SPACE_KEY}--${PORT}.${X_IDE_SPACE_REGION}.cloudstudio.club
rm /var/run/cloudstudio/.filesystem-inited && sync

一键停止并删除所有镜像及容器

docker ps -aq | xargs -r docker stop && docker ps -aq | xargs -r docker rm && docker images -q | xargs -r docker rmi -f && docker system prune -f --volumes
docker ps -aq | xargs -r docker stop && docker ps -aq | xargs -r docker rm && docker images -q | xargs -r docker rmi -f && docker system prune -f --volumes echo "🌐 已删除..."

About

我的一键更新运行脚本

Language
Shell100%