logo
0
0
Login

在 Ollama 上运行 DeepSeek-R1-0528-Qwen3-8B(via CNB)

Badge badge

通过 ollama 快速运行 DeepSeek-R1-0528 模型, 零帧启动, 免下载, 即刻体验

⭐ 如果喜欢本项目,欢迎点个 Star 支持一下!

🚀 快速体验指南

✅ 通过云原生开发环境体验

  1. 将本仓库 Fork 到你自己的组织或账号下
  2. 切换到你喜欢的分支,点击 “云原生开发” 启动远程开发环境
  3. 5~9 秒 后进入命令行界面,运行以下命令即可开始使用模型
ollama run ${image}

${image} 表示模型名称,需要替换为实际模型名称,支持以下模型

  • deepseek-r1:8b-0528-qwen3-q8_0
  • deepseek-r1:8b-0528-qwen3-fp16

📌 示例:运行 deepseek-r1:8b-0528-qwen3-q8_0 模型

ollama run deepseek-r1:8b-0528-qwen3-q8_0

📦 当前仓库支持模型列表

模型名称描述
deepseek-r1:8b-0528-qwen3-q8_0DeepSeek-R1-0528-Qwen3-8B q8_0量化版本
deepseek-r1:8b-0528-qwen3-fp16DeepSeek-R1-0528-Qwen3-8B fp16高精度版本

🔌 API 接口访问方式

在远程开发环境中,你可以通过以下方式将 Ollama 的服务暴露给公网,从而实现 API 调用:

  1. 在 IDE 的 PORTS 面板中,添加端口 11434 并设置为公开访问
  2. 访问地址:https://******-11434.cnb.run
  3. 上述访问地址 url 目前仅能通过 WebIDE 控制台的 PORTS 面板获取。

可使用 https://******-11434.cnb.run 访问Ollama端口启动的服务。

⚠️ 注意:Ollama 默认不提供 API 密钥验证机制,暴露公网存在安全风险。请勿用于生产环境,仅供测试和学习使用。

🔘 Ollama CLI 支持启用和禁用思考

指令功能描述作用说明
/set think启用思考模式允许模型进行推理、分析和生成内容
/set nothink禁用思考模式禁止模型主动思考,仅响应基础交互

🔗 相关资源:

🙌 感谢与支持

感谢 Ollama DeepSeek CNB Qwen 团队提供的强大工具与模型支持。

如果你有任何问题或建议,欢迎提交 Issue 或 PR 参与共建!