在 CNB 中直接 使用 Ollama 运行 llama,预置模型,无需等待,零帧起步。
Fork
云原生开发
5~9
${image} 为模型名称,如 llama3.2-vision:11b
llama3.2-vision:11b
ollama run ${image}
llama3.2:1b
llama3.2:3b
在 PORTS 中将 Ollama 暴露到外网,添加 11434 端口即可。
PORTS