快速体验DeepSeek模型,支持 1.5b/7b/8b/14b/32b 四个模型
模型已内置,无需等待下载,仅供快速体验
Fork 整个仓库到自己组织下,选择要体验的分支,然后点击 云原生开发,
约 5~10 秒后,进入远程开发,在命令行输入以下命令即可体验对应模型
# 变量 $ds 代表当前分支对应的模型名字
ollama serve &
ollama run $ds
docker.cnb.cool 已对腾讯云全局内网加速,免流量费用# 1.5b
docker run --rm -it docker.cnb.cool/examples/ecosystem/deepseek/1.5b:latest
ollama serve &
ollama run deepseek-r1:1.5b
# 7b
docker run --rm -it docker.cnb.cool/examples/ecosystem/deepseek/7b:latest
ollama serve &
ollama run deepseek-r1:7b
# 8b
docker run --rm -it docker.cnb.cool/examples/ecosystem/deepseek/8b:latest
ollama serve &
ollama run deepseek-r1:8b
# 14b
docker run --rm -it docker.cnb.cool/examples/ecosystem/deepseek/14b:latest
ollama serve &
ollama run deepseek-r1:14b
# 32b
docker run --rm -it docker.cnb.cool/examples/ecosystem/deepseek/32b:latest
ollama serve &
ollama run deepseek-r1:32b
生产部署,推荐云应用部署 DeepSeek