logo
0
0
Login
编辑文件 readme.md

🚀 Run Ollama via CNB 🌐✨

轻松运行 AI 大模型,零帧启动,极速体验! 🎯🔥


🌟 Ollama 是什么?

Ollama 是一个 本地 AI 模型运行工具,基于 CNB(Cloud Native Build),让你可以 轻松使用 预训练大模型!🚀🔮

💡 还在苦等模型加载? 试试 在 CNB 上运行 Ollama告别漫长等待即刻启航 AI 之旅!🎉


🚀 快速上手

🌐 云端体验(超快!)

无需配置环境,直接在 云原生开发平台 上启动:

1️⃣ 在下方选择你想使用的模型,Fork 该仓库 🎭 2️⃣ 点击 云原生开发 按钮 🖱️✨ 3️⃣ 几秒钟后,进入远程开发终端,运行👇

ollama run <模型名称>

✅ 例如,运行 Deepseek-R1:7B

ollama run deepseek-r1:7b

立刻体验,毫无等待!


🎯 进阶玩法

🚀 开放公网访问:想让你的模型支持外部访问?只需在 PORTS开放 11434 端口!🔓🔗


🎖️ 致谢

🎩 感谢以下项目支持 🙌

  • 🏗️ CNB - 云原生应用构建
  • 🧠 Ollama - 轻量级 AI 模型运行时

❤️ 支持我们

🚀 Anyexyz/OllamaCNB 提供算力支持 ✨,如果你喜欢这个项目,别忘了 Star ⭐ 支持一下!

📢 快来体验吧,让你的 AI 速度起飞! 🛸💨

About

No description, topics, or website provided.
Language
Markdown100%