logo
Login
Ollama
Ollama
Ollama
🚀 CNB x Ollama 一键模型启动站 ✈️

🚀 Run Ollama via CNB 🌐✨

轻松运行 AI 大模型,零帧启动,极速体验! 🎯🔥


🌟 Ollama 是什么?

Ollama 是一个 本地 AI 模型运行工具,基于 CNB(Cloud Native Build),让你可以 轻松使用 预训练大模型!🚀🔮

💡 还在苦等模型加载? 试试 在 CNB 上运行 Ollama告别漫长等待即刻启航 AI 之旅!🎉


🚀 快速上手

🌐 云端体验(超快!)

无需配置环境,直接在 云原生开发平台 上启动:

1️⃣ 在下方选择你想使用的模型,Fork 该仓库 🎭 2️⃣ 点击 云原生开发 按钮 🖱️✨ 3️⃣ 几秒钟后,进入远程开发终端,运行👇

ollama run <模型名称>

✅ 例如,运行 Deepseek-R1:7B

ollama run deepseek-r1:7b

立刻体验,毫无等待!


🎯 进阶玩法

🚀 开放公网访问:想让你的模型支持外部访问?只需在 PORTS开放 11434 端口!🔓🔗


🎖️ 致谢

🎩 感谢以下项目支持 🙌

  • 🏗️ CNB - 云原生应用构建
  • 🧠 Ollama - 轻量级 AI 模型运行时

❤️ 支持我们

🚀 Anyexyz/OllamaCNB 提供算力支持 ✨,如果你喜欢这个项目,别忘了 Star ⭐ 支持一下!

📢 快来体验吧,让你的 AI 速度起飞! 🛸💨

Pinned

在 CNB 中直接运行 Ollama 的预置环境。
Dockerfile
13010
Recent updates
在 CNB 中直接 使用 Ollama 运行 deepseek,预置模型,无需等待,零帧起步。
Dockerfile
26100
在 CNB 中直接 使用 Ollama 运行 llama,预置模型,无需等待,零帧起步。
Dockerfile
0500
在 CNB 中直接 使用 Ollama 运行 qwen2.5,预置模型,无需等待,零帧起步。
Dockerfile
42900
在 CNB 中直接 使用 Ollama 运行 QwQ,预置模型,无需等待,零帧起步。
Dockerfile
2521000
在 CNB 中直接 使用 Ollama 运行 gemma,预置模型,无需等待,零帧起步。
Dockerfile
03500
在 CNB 中直接运行 Ollama 的预置环境。
Dockerfile
13010