快速体验 DeepSeek,支持 1.5b/7b/8b/14b/32b/70b,无需等待下载模型。
Fork 仓库到自己组织下,选择喜欢的分支,然后点击 云原生开发,
约 5~10 秒后,在远程开发的命令行中,输入以下命令即可体验 DeepSeek
ollama run $ds
如果你仅需要与 DeepSeek 对话,点击页面右上角搜索框,直接提问即可,或按下/键体验更佳。
如果你希望在自己的 CVM 中运行 DeepSeek 并体验,以 14b 为例,可以参考以下步骤:
docker run --rm -it docker.cnb.cool/examples/ecosystem/deepseek/14b:latest ollama serve & ollama run deepseek-r1:14b
域名 docker.cnb.cool 已对腾讯云全局内网加速,免流量费用
如果仅需下载 671b 模型,可以通过以下地址加速下载:
域名 cnb.cool 已对腾讯云全局内网加速,免流量费用
基于 DeepSeek 开发 AI 应用,以下方式可用于部署: