logo
0
0
Login

在 Ollama 上运行 Qwen3(via CNB)

Badge badge

通过 Ollama 快速运行 Qwen3 模型,已预置 qwen3:32b-q8_0qwen3:32b-fp16 等模型,支持:

  • 零帧启动 🚨
  • 免下载 🖥️
  • 即刻体验 💡

⭐ 如果喜欢本项目,欢迎点个 Star 支持一下!

🚀 快速体验指南

✅ 通过云原生开发环境体验

  1. 将本仓库 Fork 到你自己的组织或账号下
  2. 切换到你喜欢的分支,点击 “云原生开发” 启动远程开发环境
  3. 5~9 秒 后进入命令行界面,运行以下命令即可开始使用模型

${image} 表示模型名称,需要替换为实际模型名称,例如:qwen3:32b-q8_0qwen3:32b-fp16

ollama run ${image}

📌 示例:运行 qwen3:32b-q8_0 模型

ollama run qwen3:32b-q8_0

📦 当前仓库支持模型列表

模型名称描述
qwen3:32b-q8_0Qwen3-32B q8_0量化版本
qwen3:32b-fp16Qwen3-32B fp16高精度版本
qwen3:30b-a3b-q8_0Qwen3-30B a3b架构(3B激活参数)q8_0量化版本

🔌 API 接口访问方式

在远程开发环境中,你可以通过以下方式将 Ollama 的服务暴露给公网,从而实现 API 调用:

  1. 在 IDE 的 PORTS 面板中,添加端口 11434 并设置为公开访问
  2. 访问地址:https://******.cnb.run:11434
  3. 上述访问地址可以通过查看 WebIDE urlhttps://cnb-xxx-xxxxxx-001.cnb.space

可使用 https://cnb-xxx-xxxxxx-001-11434.cnb.run (域名部分加上中划线端口号 -11434)访问Ollama端口启动的服务。

⚠️ 注意:Ollama 默认不提供 API 密钥验证机制,暴露公网存在安全风险。请勿用于生产环境,仅供测试和学习使用。

🧠 Qwen3 软开关功能(高级说明)

Qwen3 默认是启用思考模式的,模型会首先生成包含在 <think>...</think> 块中的思考内容,随后给出最终回复。

Qwen3 支持通过软开关指令动态控制其思考行为,实现更灵活的对话控制机制。

🔘 支持的软开关指令

指令功能描述作用说明
/think启用思考模式允许模型进行推理、分析和生成内容
/no_think禁用思考模式禁止模型主动思考,仅响应基础交互

📥 使用方式

您可以在以下类型的消息中添加这些指令:

  • 👤 用户消息(user)
  • 🤖 系统消息(system)

🔄 行为特性:有状态切换

🔄 Qwen3 的软开关是有状态的,这意味着:

  • 在多轮对话中,模型会记住最近一次设置指令的模式
  • 无需在每条消息中重复指定,除非需要变更当前模式。

📌 示例:修改用户发送的消息,禁用/启用Qwen3模型思考

# 禁用 Qwen3 模型思考 Then, how many r's in blueberries? /no_think # 启用 Qwen3 模型思考 Really? /think

✅ 使用总结

只需在用户消息的末尾添加以下任意一条指令,即可快速控制模型的思考行为:

  • /think启用思考模式,让模型进行推理与内容生成
  • /no_think禁用思考模式,仅进行基础响应或被动交互

🙌 感谢与支持

感谢 OllamaQwenCNB 团队提供的强大工具与模型支持。 如果你有任何问题或建议,欢迎提交 Issue 或 PR 参与共建!

About

Qwen3-32B一键启动

Language
Markdown88.9%
Dockerfile11.1%