开发者社区的福音来了! 为了推动 AI 智能体技术的民主化进程,构建充满活力的创新生态,我们激动地宣布:Kode 已正式从 AGPLv3 协议升级为 Apache 2.0 开源协议。
让我们携手共建未来!🚀
2025-08-29:我们添加了 Windows 电脑的运行支持!所有的 Windows 用户现在可以使用你电脑上的 Git Bash、Unix 子系统或 WSL(Windows Subsystem for Linux)来运行 Kode。
Kode 是一个强大的 AI 助手,运行在你的终端中。它能理解你的代码库、编辑文件、运行命令,并为你处理整个开发工作流。
⚠️ 安全提示:Kode 默认以 YOLO 模式运行(等同于 Claude Code 的
--dangerously-skip-permissions标志),跳过所有权限检查以获得最大生产力。YOLO 模式仅建议在安全可信的环境中处理非重要项目时使用。如果您正在处理重要文件或使用能力存疑的模型,我们强烈建议使用kode --safe启用权限检查和手动审批所有操作。📊 模型性能建议:为获得最佳体验,建议使用专为自主任务完成设计的新一代强大模型。避免使用 GPT-4o、Gemini 2.5 Pro 等较老的问答型模型,它们主要针对回答问题进行优化,而非持续的独立任务执行。请选择专门训练用于智能体工作流和扩展推理能力的模型。
npm install -g @shareai-lab/kode
安装后,你可以使用以下任一命令:
kode - 主命令kwa - Kode With Agent(备选)kd - 超短别名npm config set prefix "C:\\npm",然后重新安装全局包。启动交互式会话:
kode
# 或
kwa
# 或
kd
获取快速响应:
kode -p "解释这个函数" 路径/到/文件.js
# 或
kwa -p "解释这个函数" 路径/到/文件.js
# 克隆仓库
git clone https://github.com/shareAI-lab/Kode.git
cd Kode
# 本地构建镜像
docker build --no-cache -t kode .
# 在你的项目目录中运行
cd your-project
docker run -it --rm \
-v $(pwd):/workspace \
-v ~/.kode:/root/.kode \
-v ~/.kode.json:/root/.kode.json \
-w /workspace \
kode
该 Docker 配置包含以下内容:
卷挂载(Volume Mounts):
$(pwd):/workspace - 挂载当前项目目录~/.kode:/root/.kode - 在运行间保留 kode 配置目录~/.kode.json:/root/.kode.json - 在运行间保留 kode 全局配置文件工作目录:容器内工作目录设置为 /workspace
交互模式:使用 -it 标志以交互式终端方式运行
清理:使用 --rm 在退出后自动删除容器
注意:
Kode 同时使用 ~/.kode 目录(存放额外数据,如内存文件)和 ~/.kode.json 文件(全局配置)。
第一次运行 Docker 命令时会构建镜像,之后的运行会使用缓存镜像以加快启动速度。
你可以通过引导流程(onboarding)来设置模型,或使用 /model 命令。
如果在列表中没有你想要的模型,可以在 /config 中手动设置。
只要你有一个 OpenAI 风格的 API 端点,就可以正常使用。
/help - 显示可用命令/model - 更改 AI 模型设置/config - 打开配置面板/cost - 显示 token 使用量和成本/clear - 清除对话历史/init - 初始化项目上下文与 CC 仅支持单一模型不同,Kode 实现了真正的多模型协同工作,让你能够充分发挥不同 AI 模型的独特优势。
我们设计了统一的 ModelManager 系统,支持:
/model 命令中配置不同用途的默认模型:
main:主 Agent 的默认模型task:SubAgent 的默认模型reasoning:预留给未来 ThinkTool 使用quick:用于简单 NLP 任务(如安全性识别、生成标题描述等)的快速模型专门设计的 TaskTool(Architect 工具)实现了:
task 指针配置的模型我们专门设计了 AskExpertModel 工具:
/model 命令:使用 /model 命令配置和管理多个模型配置文件,设置不同用途的默认模型架构设计阶段
方案细化阶段
代码实现阶段
疑难问题解决
# 示例 1:架构设计
"用 o3 模型帮我设计一个高并发的消息队列系统架构"
# 示例 2:多模型协作
"先用 GPT-5 模型分析这个性能问题的根本原因,然后用 Claude Sonnet 4 模型编写优化代码"
# 示例 3:并行任务处理
"用 Qwen Coder 模型作为 subagent 同时重构这三个模块"
# 示例 4:专家咨询
"这个内存泄漏问题很棘手,单独问问 Claude Opus 4.1 模型有什么解决方案"
# 示例 5:代码审查
"让 Kimi k2 模型审查这个 PR 的代码质量"
# 示例 6:复杂推理
"用 Grok 4 模型帮我推导这个算法的时间复杂度"
# 示例 7:方案设计
"让 GLM-4.5 模型设计微服务拆分方案"
// 支持多模型配置的示例
{
"modelProfiles": {
"o3": { "provider": "openai", "model": "o3", "apiKey": "..." },
"claude4": { "provider": "anthropic", "model": "claude-sonnet-4", "apiKey": "..." },
"qwen": { "provider": "alibaba", "model": "qwen-coder", "apiKey": "..." }
},
"modelPointers": {
"main": "claude4", // 主对话模型
"task": "qwen", // 任务执行模型
"reasoning": "o3", // 推理模型
"quick": "glm-4.5" // 快速响应模型
}
}
/cost 命令查看各模型的 token 使用量和花费| 特性 | Kode | 官方 CC |
|---|---|---|
| 支持模型数量 | 无限制,可配置任意模型 | 仅支持单一 Claude 模型 |
| 模型切换 | ✅ Tab 键快速切换 | ❌ 需要重启会话 |
| 并行处理 | ✅ 多个 SubAgent 并行工作 | ❌ 单线程处理 |
| 成本追踪 | ✅ 多模型成本分别统计 | ❌ 单一模型成本 |
| 任务模型配置 | ✅ 不同用途配置不同默认模型 | ❌ 所有任务用同一模型 |
| 专家咨询 | ✅ AskExpertModel 工具 | ❌ 不支持 |
这种多模型协同能力让 Kode 成为真正的 AI 开发工作台,而不仅仅是一个单一的 AI 助手。
Kode 使用现代化工具构建,开发需要 Bun。
# macOS/Linux
curl -fsSL https://bun.sh/install | bash
# Windows
powershell -c "irm bun.sh/install.ps1 | iex"
# 克隆仓库
git clone https://github.com/shareAI-lab/kode.git
cd kode
# 安装依赖
bun install
# 在开发模式下运行
bun run dev
bun run build
# 运行测试
bun test
# 测试 CLI
./cli.js --help
我们欢迎贡献!请查看我们的贡献指南了解详情。
Apache 2.0 许可证 - 详见 LICENSE。