logo
0
0
Login

DeepSeek Web

一个简单的 Web 界面,用于与 DeepSeek Coder 模型进行交互。该项目使用 React 构建前端界面,使用 Express 构建后端服务,并通过 Ollama API 与 DeepSeek Coder 模型通信。

项目结构

deepseek-web/ ├── frontend/ # React 前端 └── backend/ # Express 后端

前提条件

  • Node.js (v14+)
  • npm 或 yarn
  • 已安装并运行的 Ollama(带有 DeepSeek Coder 模型)

安装 Ollama 和 DeepSeek Coder 模型

  1. 安装 Ollama:按照 Ollama 官方文档 的指南进行安装。

  2. 拉取 DeepSeek Coder 模型:

    ollama pull deepseek-coder

设置和运行

后端设置

  1. 进入后端目录:

    cd backend
  2. 安装依赖:

    npm install
  3. 配置环境变量(可选):

    • 默认配置已在 .env 文件中设置
    • 如需修改,请编辑 .env 文件
  4. 启动后端服务器:

    npm start

    服务器将在 http://localhost:3001 上运行

前端设置

  1. 进入前端目录:

    cd frontend
  2. 安装依赖:

    npm install
  3. 启动开发服务器:

    npm start

    前端将在 http://localhost:3000 上运行

使用方法

  1. 确保 Ollama 正在运行,并且已加载 DeepSeek Coder 模型
  2. 启动后端服务器
  3. 启动前端开发服务器
  4. 在浏览器中打开 http://localhost:3000
  5. 在文本框中输入问题,然后点击"发送"按钮
  6. 等待模型生成回复

自定义配置

更改模型

如果要使用不同的模型,请编辑后端的 .env 文件中的 MODEL_NAME 变量:

MODEL_NAME=your-model-name

更改 Ollama API URL

如果 Ollama 运行在不同的地址或端口,请编辑后端的 .env 文件中的 OLLAMA_API_URL 变量:

OLLAMA_API_URL=http://your-ollama-host:port/api/generate

故障排除

  • 如果遇到 CORS 错误,请确保后端服务器正在运行,并且前端配置了正确的 API URL
  • 如果无法连接到 Ollama API,请确保 Ollama 正在运行,并且配置了正确的 API URL
  • 如果模型响应很慢,这可能是因为 DeepSeek Coder 是一个大型模型,需要足够的计算资源

许可证

MIT

About

一个简单的 Web 界面,用于与 DeepSeek Coder 模型进行交互。该项目使用 React 构建前端界面,使用 Express 构建后端服务,并通过 Ollama API 与 DeepSeek Coder 模型通信。

Language
CSS34.6%
JavaScript31.8%
Shell22%
Markdown7.7%
Others3.9%