logo
0
0
WeChat Login
Forkfromxiao-ai/Qwen3-32B, behind:main7 commits

在 Ollama 上运行 Qwen3(通过 CNB)

Badge

通过 Ollama 快速运行 Qwen3 模型,已预置如 qwen3:32b-q8_0 等模型,无需下载等待,零帧启动,即刻体验!

⭐ 如果喜欢本项目,欢迎点个 Star 支持一下!

🚀 快速体验指南

✅ 通过云原生开发环境体验

  1. 将本仓库 Fork 到你自己的组织或账号下
  2. 切换到你喜欢的分支,点击 “云原生开发” 启动远程开发环境
  3. 5~9 秒 后进入命令行界面,运行以下命令即可开始使用模型

${image} 表示模型名称,例如:qwen3:32b-q8_0

ollama run ${image}

示例:运行 qwen3:32b-q8_0 模型

ollama run qwen3:32b-q8_0

📦 当前仓库支持模型列表

模型名称描述
qwen3:32b-q8_0Qwen3-32B q8_0量化版本

🔌 API 接口访问方式

在远程开发环境中,你可以通过以下方式将 Ollama 的服务暴露给公网,从而实现 API 调用:

  1. 在 IDE 的 PORTS 面板中,添加端口 11434 并设置为公开访问
  2. 访问地址:https://******.cnb.run:11434
  3. 上述访问地址可以通过查看 WebIDE urlhttps://cnb-xxx-xxxxxx-001.cnb.space 。 可使用 https://cnb-xxx-xxxxxx-001-11434.cnb.run (域名部分加上中划线端口号 -11434)访问Ollama端口启动的服务。

⚠️ 注意:Ollama 默认不提供 API 密钥验证机制,暴露公网存在安全风险。请勿用于生产环境,仅供测试和学习使用。

🙌 感谢与支持

感谢 OllamaQwen 团队提供的强大工具与模型支持。如果你有任何问题或建议,欢迎提交 Issue 或 PR 参与共建!

About

No description, topics, or website provided.