快速体验 DeepSeek-R1,支持 1.5b/7b/8b/14b/32b/70b,无需等待,零帧起步。
Fork 本仓库到自己的组织下云原生开发 启动远程开发环境5~9 秒后,进入远程开发,在命令行中输入以命令即可体验ollama run $ds
适用于无需部署,仅对话的场景,按下 / 键直接提问即可。
在本地或云主机上运行并体验,以 1.5b 为例,可以这样:
docker run --rm -it docker.cnb.cool/examples/ecosystem/deepseek/1.5b:latest ollama serve & ollama run deepseek-r1:1.5b
域名 docker.cnb.cool 已对腾讯云全局内网加速,无流量费用,不同模型推荐的资源如下:
1.5b - 4核8G内存7b - 8核16G内存8b - 8核16G内存14b - 16核32G内存32b - 32核64G内存 或 16核24G显存70b - 16核44G显存基于 DeepSeek 开发 AI 应用,以下方式可用于部署: