在 CNB 中直接 使用 Ollama 运行 QwQ,预置模型,无需等待,零帧起步。
Fork
云原生开发
5~9
${image} 为模型名称,如 QwQ:32b
QwQ:32b
ollama run ${image}
在 PORTS 中将 Ollama 暴露到外网,添加 11434 端口即可。
PORTS