logo
9
2
Login

VLLM 在线部署(cnb:arch:amd64:gpu)

前置说明:直接Fork仓库运行,不要问怎么用和怎么添加模型,想要玩转“云原生开发”的,git、docker、yaml 的基础知识必须会,点到为止 ···

2025-10-27 更新日志

  • VLLM 更新至 0.11.0
  • Torch 更新至 2.8.0+cu128
  • CNB 镜像:docker.cnb.cool/jiangrj/docker_hub:vllm
  • Docker 镜像:registry.cn-hangzhou.aliyuncs.com/joybo/vllm

Qwen2.5-VL加载速度慢的问题已经解决(Torch2.5及以上的版本即可)

项目介绍

基于 CNB 构建一个较新的 VLLM 运行环境

环境CPU内存GPU显存Image
Docker16 Core32GH2096Gvllm/vllm-openai:latest

VLLM运行截图

环境截图

更多AI相关内容(也欢迎玩摄影的小伙伴们!)

抖音小红书公众号

About

No description, topics, or website provided.
VLLMsame-named
Language
Shell75.6%
Python12.3%
Dockerfile12.1%