通过 ollama 快速运行 DeepSeek-R1-0528 模型, 零帧启动, 免下载, 即刻体验
⭐ 如果喜欢本项目,欢迎点个 Star 支持一下!
ollama run ${image}
${image}表示模型名称,需要替换为实际模型名称,支持以下模型
deepseek-r1:8b-0528-qwen3-q8_0deepseek-r1:8b-0528-qwen3-fp16📌 示例:运行 deepseek-r1:8b-0528-qwen3-q8_0 模型
ollama run deepseek-r1:8b-0528-qwen3-q8_0
| 模型名称 | 描述 |
|---|---|
deepseek-r1:8b-0528-qwen3-q8_0 | DeepSeek-R1-0528-Qwen3-8B q8_0量化版本 |
deepseek-r1:8b-0528-qwen3-fp16 | DeepSeek-R1-0528-Qwen3-8B fp16高精度版本 |
在远程开发环境中,你可以通过以下方式将 Ollama 的服务暴露给公网,从而实现 API 调用:
11434 并设置为公开访问https://******-11434.cnb.runurl 目前仅能通过 WebIDE 控制台的 PORTS 面板获取。可使用 https://******-11434.cnb.run 访问Ollama端口启动的服务。
⚠️ 注意:Ollama 默认不提供 API 密钥验证机制,暴露公网存在安全风险。请勿用于生产环境,仅供测试和学习使用。
| 指令 | 功能描述 | 作用说明 |
|---|---|---|
/set think | 启用思考模式 | 允许模型进行推理、分析和生成内容 |
/set nothink | 禁用思考模式 | 禁止模型主动思考,仅响应基础交互 |
感谢 Ollama DeepSeek CNB Qwen 团队提供的强大工具与模型支持。
如果你有任何问题或建议,欢迎提交 Issue 或 PR 参与共建!