一键 Fork,在云端即刻拥有你的专属 AI 聊天助手,轻松切换不同的大语言模型!
本项目旨在提供一种在云原生环境中快速部署 NextChat (一个流行的 ChatGPT/LLM Web UI) 并将其后端接入 Ollama (一个本地运行大语言模型的工具) 的解决方案。
最大的特色在于,我们利用 Git 分支 来管理和选择不同的 Ollama 模型。你只需要切换到对应的分支,即可自动为你部署运行指定模型的 NextChat 实例。
本仓库的 CI/CD 配置会根据当前的 Git 分支名称来决定启动哪个 Ollama 模型服务。
qwen3) 并触发部署时:只需以下简单几步,即可拥有自己的云端 AI 聊天应用:
Fork 仓库:
Fork 按钮。
切换分支:
deepseek 来使用 deepseek 模型。

启动应用:
快来和我对话吧!。

等待部署并访问:
3000 端口)。
开始聊天! 🎉 现在你可以和通过 Ollama 运行在云端的专属大模型进行对话了。

本仓库通过不同分支提供以下预配置的 Ollama 模型:
qwen3: 使用阿里巴巴的 Qwen3 (通义千问) 模型。QwQ: 使用阿里巴巴的 QwQ 模型。qwen2.5: 使用阿里巴巴的 Qwen (通义千问) 模型。deepseek: 使用 深度求索 的 DeepSeek 模型。llama: 使用 Meta 的 Llama 模型。gemma: 使用 Google 的 Gemma 模型。env : 开发环境。如何切换模型? 只需回到你的仓库,切换到不同的模型分支,然后 一键启动! 即可!
欢迎通过 Pull Request 贡献代码、添加更多模型分支或改进文档!
git checkout -b feature/AmazingFeature)git commit -m 'Add some AmazingFeature')git push origin feature/AmazingFeature)