logo
0
0
Login
docs: 增加70b的支持

Run DeepSeek via CNB

badge

快速体验DeepSeek模型,支持 1.5b/7b/8b/14b/32b/70b 六个模型。

14b 的回答质量已经很好了,而且速度很快,推荐使用 14b 模型。

快速体验

模型已内置,无需等待下载,仅供快速体验

在云原生开发中一键体验

Fork 整个仓库到自己组织下,选择要体验的分支,然后点击 云原生开发

5~10 秒后,进入远程开发,在命令行输入以下命令即可体验对应模型

# 变量 $ds 代表当前分支对应的模型名字 ollama serve & ollama run $ds

在 Docker 环境中快速体验

  1. 已内置模型在 docker 中,无需下载模型
  2. 域名 docker.cnb.cool 已对腾讯云全局内网加速,免流量费用
# 1.5b docker run --rm -it docker.cnb.cool/examples/ecosystem/deepseek/1.5b:latest ollama serve & ollama run deepseek-r1:1.5b
# 7b docker run --rm -it docker.cnb.cool/examples/ecosystem/deepseek/7b:latest ollama serve & ollama run deepseek-r1:7b
# 8b docker run --rm -it docker.cnb.cool/examples/ecosystem/deepseek/8b:latest ollama serve & ollama run deepseek-r1:8b
# 14b docker run --rm -it docker.cnb.cool/examples/ecosystem/deepseek/14b:latest ollama serve & ollama run deepseek-r1:14b
# 32b docker run --rm -it docker.cnb.cool/examples/ecosystem/deepseek/32b:latest ollama serve & ollama run deepseek-r1:32b
# 70b docker run --rm -it docker.cnb.cool/examples/ecosystem/deepseek/70b:latest ollama serve & ollama run deepseek-r1:70b

生产部署

生产部署,推荐云应用部署 DeepSeek