在 CNB 中直接 使用 Ollama 运行 qwen2.5,预置模型,无需等待,零帧起步。
Fork
云原生开发
5~9
${image} 为模型名称,如 qwen2.5:7b
qwen2.5:7b
ollama run ${image}
qwen2.5:0.5b
qwen2.5:1.5b
qwen2.5:3b
在 PORTS 中将 Ollama 暴露到外网,添加 11434 端口即可。
PORTS