在 CNB 中直接 使用 Ollama 运行 qwen3,预置模型,无需等待,零帧起步。
Fork 本仓库到自己的组织下云原生开发 启动远程开发环境5~9 秒后,进入远程开发命令行,输入以下命令即可体验${image} 为模型名称,如
qwen3:8b
ollama run ${image}
qwen3:0.6bqwen3:1.7bqwen3:1.7b-q8_0qwen3:4bqwen3:8bqwen3:14bqwen3:30bqwen3:32b在 PORTS 中将 Ollama 暴露到外网,添加 11434 端口即可。
这是一个基于Flask的代理服务器,用于转发请求到本地的Ollama API服务。Ollama是一个本地运行大型语言模型的工具,本代理服务器提供了以下功能:
# 安装必要的系统包
apt-get update && apt-get install -y python3 python3-pip python3-flask python3-flask-cors python3-requests python3.11-venv
# 或者使用pip安装Python依赖
# 创建虚拟环境(选择一个项目目录)
python3 -m venv myprojectenv
# 激活虚拟环境
## Linux/macOS:
source myprojectenv/bin/activate
# 激活后,提示符会显示环境名称(如 `(myprojectenv)`)
# 此时安装包不会影响系统环境
pip install flask flask-cors requests -i https://pypi.tuna.tsinghua.edu.cn/simple
git clone [您的仓库地址]
cd ollama-proxy
# 直接运行
python3 ollama_proxy.py
# 或者后台运行
nohup python3 ollama_proxy.py > ollama_proxy.log 2>&1 &
访问以下URL验证服务是否正常运行:
http://localhost:5000/ - 查看API文档页面http://localhost:5000/api - 获取API基本信息https://pk2qe0dxad-5000.cnb.run/apiGET /api/tags
示例:
curl https://pk2qe0dxad-5000.cnb.run/api/tags
POST /api/generate
请求体:
{
"model": "模型名称",
"prompt": "提示文本",
"stream": false
}
示例:
curl -X POST https://pk2qe0dxad-5000.cnb.run/api/generate \
-H "Content-Type: application/json" \
-d '{"model": "deepseek-r1:14b", "prompt": "解释量子计算", "stream": false}'
POST /api/chat
请求体:
{
"model": "模型名称",
"messages": [
{"role": "user", "content": "消息内容"}
],
"stream": false
}
示例:
curl -X POST https://pk2qe0dxad-5000.cnb.run/api/chat \
-H "Content-Type: application/json" \
-d '{"model": "deepseek-r1:14b", "messages": [{"role": "user", "content": "你好"}], "stream": false}'
curl https://pk2qe0dxad-5000.cnb.run/api/tags
curl -X POST https://pk2qe0dxad-5000.cnb.run/api/generate \
-H "Content-Type: application/json" \
-d '{"model": "deepseek-r1:14b", "prompt": "写一首关于AI的诗", "stream": true}'
curl -X POST https://pk2qe0dxad-5000.cnb.run/api/chat \
-H "Content-Type: application/json" \
-d '{"model": "deepseek-r1:14b", "messages": [{"role": "user", "content": "如何学习Python"}], "stream": false}'
"stream": true/workspace/ollama_proxy.log连接问题:
# 检查服务是否运行
ps aux | grep "python3 ollama_proxy.py"
# 检查端口是否监听
netstat -tulnp | grep 5000
查看日志:
tail -f /workspace/ollama_proxy.log
重启服务:
pkill -f "python3 ollama_proxy.py"
nohup python3 ollama_proxy.py > ollama_proxy.log 2>&1 &