logo
2
0
Login
fix:更新文档

Run Ollama in CNB

在 CNB 中直接 使用 Ollama ,无需等待,零帧起步。

食用教程

快速体验

通过云原生开发体验

  1. Fork 本仓库到自己的组织下
  2. 点击 云原生开发 启动远程开发环境
  3. 5~9 秒后,进入远程开发命令行
  4. 在云开发中,git clone Ollama下的模型,mv 到指定 models 目录下,即可使用该模型

模型组织:https://cnb.cool/ai-models/Ollama/-/repos?tab=all

进阶

公网访问

PORTS 中将 Ollama 暴露到外网,添加 11434 端口即可。