logo
0
0
Login
feat: 添加 gpt-oss 模型并更新相关配置及文档

NextChat-with-Ollama

badge badge

一键 Fork,在云端即刻拥有你的专属 AI 聊天助手,轻松切换不同的大语言模型!

本项目旨在提供一种在云原生环境中快速部署 NextChat (一个流行的 ChatGPT/LLM Web UI) 并将其后端接入 Ollama (一个本地运行大语言模型的工具) 的解决方案。

最大的特色在于,我们利用 Git 分支 来管理和选择不同的 Ollama 模型。你只需要切换到对应的分支,即可自动为你部署运行指定模型的 NextChat 实例。

✨ 项目特性

  • ☁️ 云原生部署: 无需在本地安装和配置 Ollama 或复杂的环境,一键 Fork 即可在云端运行。
  • 🤖 Ollama 集成: 利用 Ollama 强大的能力运行各种开源大语言模型。
  • 🔄 Git 分支即模型: 创新性地使用 Git 分支来管理和切换后端 LLM 模型,直观便捷。
  • 🚀 快速体验: 极简的启动流程,只需 Fork、选择分支、运行。
  • 🎨 优秀前端: 集成功能丰富、界面美观的 NextChat UI。

🤔 工作原理

本仓库的 CI/CD 配置会根据当前的 Git 分支名称来决定启动哪个 Ollama 模型服务。

  1. 当你切换到一个特定模型的 分支 (例如 qwen3) 并触发部署时:
  2. CI/CD 流水线会启动一个包含 Ollama 和 NextChat 的服务容器。
  3. 流水线脚本会解析分支名称,并 自动拉取并运行 分支对应的 Ollama 模型 。
  4. NextChat 应用被配置为连接到这个在同一环境中运行的 Ollama 服务。
  5. 最终,你将得到一个可以通过 Web 访问的 NextChat 界面,其后端由你选择的分支所对应的 Ollama 模型驱动。

🚀 快速开始

只需以下简单几步,即可拥有自己的云端 AI 聊天应用:

  1. Fork 仓库:

    • 点击本仓库页面右上角的 Fork 按钮。
    • 选择你自己的账号或组织作为目标。 Fork 仓库的操作截图
  2. 切换分支:

    • 进入你 Fork 后的仓库 页面。
    • 点击仓库文件列表上方的分支选择下拉菜单。
    • 选择一个代表你想使用的模型的分支(请参见下面的 可用模型分支 列表)。例如,选择 deepseek 来使用 deepseek 模型。 在你 Fork 后的仓库中,展示如何切换分支的截图
  3. 启动应用:

    • 点击 快来和我对话吧!展示点击启动按钮的操作截图
  4. 等待部署并访问:

    • CI/CD 流水线会自动开始构建和部署。
    • 部署成功后,在线 IDE 会指示你需要进行端口转发(如转发 3000 端口)。
    • 打开提供的 URL 或完成端口转发设置后访问。 展示部署成功后的操作截图
  5. 开始聊天! 🎉 现在你可以和通过 Ollama 运行在云端的专属大模型进行对话了。 展示聊天界面的截图

📚 可用模型分支

本仓库通过不同分支提供以下预配置的 Ollama 模型:

  • qwen3: 使用阿里巴巴的 Qwen3 (通义千问) 模型。
  • QwQ: 使用阿里巴巴的 QwQ 模型。
  • qwen2.5: 使用阿里巴巴的 Qwen (通义千问) 模型。
  • deepseek: 使用 深度求索 的 DeepSeek 模型。
  • gpt-oss: 使用 OpenAI 的 GPT-OSS 模型。
  • llama: 使用 Meta 的 Llama 模型。
  • gemma: 使用 Google 的 Gemma 模型。
  • env : 开发环境。

如何切换模型? 只需回到你的仓库,切换到不同的模型分支,然后 一键启动! 即可!

🤝 贡献

欢迎通过 Pull Request 贡献代码、添加更多模型分支或改进文档!

  1. Fork 本仓库
  2. 创建你的特性分支 (git checkout -b feature/AmazingFeature)
  3. 提交你的修改 (git commit -m 'Add some AmazingFeature')
  4. 推送到分支 (git push origin feature/AmazingFeature)
  5. 打开一个 Pull Request

🙏 致谢

  • NextChat: 提供了优秀的前端 UI。
  • Ollama: 使得在本地和容器中运行大语言模型变得简单。
  • cnb.cool: 提供了便捷的云原生运行环境。