- 多轮检索和推理(可进行反思次数配置)
- 结构化输出研究报告
- 实时流式输出
- 支持显示当前步骤
- 支持不同的模型做不同事情,例如 query 生成使用一个模型,Reflection 使用一个模型,最终 Answer 使用一个模型
- 引用来源和溯源能力 (显示来源和相关性)
- 实现长对话总结、记忆功能
- 普通对话:问一次 → 检索一次 → 回答
- DeepResearch:问一次 → 总结上下文 -> 拆解问题 → 多次检索 → 整合信息 → 生成报告
| 参数名 | 默认值 | 数据类型 | 描述 |
|---|
| ollama_generate_query_model | qwen3:32b | str | 用于生成查询的 Ollama 模型 |
| ollama_chat_model | qwen3:14b | str | 用于闲聊对话的 Ollama 模型 |
| ollama_summary_model | qwen3:32b | str | 用于总结对话的 Ollama 模型 |
| ollama_generate_answer_model | qwen3:32b | str | 用于生成答案的 Ollama 模型 |
| ollama_reflect_model | qwen3:14b | str | 用于结果反思的 Ollama 模型 |
| max_reflect_retries | 2 | int | 反思流程的最大重试次数 |
| summary_max_tokens | 2048 | int | 触发对话摘要的令牌阈值 |
| summary_max_tokens_before | 2048 | int | 摘要前保留的最大上下文令牌数 |
| summary_max_summary_tokens | 512 | int | 摘要内容的最大令牌限制 |
- 需要注册 LangSmith 账号,并获取 API Key,打开 https://smith.langchain.com ,点击 API Keys -> API Key 生成 API Key
- 需要在环境变量增加
LANGSMITH_API_KEY (注意是 export 到 环境变量上)
export LANGSMITH_API_KEY=your_api_key
export CNB_REPO_SLUG=cnb/docs
docker compose up
3. 在远程开发端口转发中,添加 8123 端口,并且访问即可, 例如:
https://xxx-8123.cnb.run/app/
http://localhost:8123/app/