
DeepWikiは、GitHub、GitLab、または Bitbucket リポジトリのための美しくインタラクティブな Wiki を自動的に作成します!リポジトリ名を入力するだけで、DeepWiki は以下を行います:
English | 简体中文 | 繁體中文 | 日本語 | Español | 한국어 | Tiếng Việt | Português Brasileiro | Français | Русский
# リポジトリをクローン
git clone https://github.com/AsyncFuncAI/deepwiki-open.git
cd deepwiki-open
# APIキーを含む.envファイルを作成
echo "GOOGLE_API_KEY=your_google_api_key" > .env
echo "OPENAI_API_KEY=your_openai_api_key" >> .env
# オプション: OpenRouterモデルを使用する場合はOpenRouter APIキーを追加
echo "OPENROUTER_API_KEY=your_openrouter_api_key" >> .env
# Docker Composeで実行
docker-compose up
(上記の Docker コマンドおよびdocker-compose.ymlの設定では、ホスト上の~/.adalflowディレクトリをコンテナ内の/root/.adalflowにマウントします。このパスは以下のものを保存するために使用されます:
~/.adalflow/repos/)~/.adalflow/databases/)~/.adalflow/wikicache/)これにより、コンテナが停止または削除されてもデータが永続化されます。)
💡 これらのキーの入手先:
- Google API キーはGoogle AI Studioから取得
- OpenAI API キーはOpenAI Platformから取得
プロジェクトのルートに.envファイルを作成し、以下のキーを追加します:
GOOGLE_API_KEY=your_google_api_key OPENAI_API_KEY=your_openai_api_key # オプション: OpenRouterモデルを使用する場合は追加 OPENROUTER_API_KEY=your_openrouter_api_key
# Pythonの依存関係をインストール
pip install -r api/requirements.txt
# APIサーバーを起動
python -m api.main
# JavaScript依存関係をインストール
npm install
# または
yarn install
# Webアプリを起動
npm run dev
# または
yarn dev
https://github.com/openai/codex、https://github.com/microsoft/autogen、https://gitlab.com/gitlab-org/gitlab、またはhttps://bitbucket.org/redradish/atlassian_app_versions)DeepWiki は AI を使用して:
deepwiki/ ├── api/ # バックエンドAPIサーバー │ ├── main.py # APIエントリーポイント │ ├── api.py # FastAPI実装 │ ├── rag.py # 検索拡張生成 │ ├── data_pipeline.py # データ処理ユーティリティ │ └── requirements.txt # Python依存関係 │ ├── src/ # フロントエンドNext.jsアプリ │ ├── app/ # Next.jsアプリディレクトリ │ │ └── page.tsx # メインアプリケーションページ │ └── components/ # Reactコンポーネント │ └── Mermaid.tsx # Mermaid図レンダラー │ ├── public/ # 静的アセット ├── package.json # JavaScript依存関係 └── .env # 環境変数(作成する必要あり)
| 変数 | 説明 | 必須 | 注意 |
|---|---|---|---|
GOOGLE_API_KEY | AI 生成のための Google Gemini API キー | ◯ | |
OPENAI_API_KEY | 埋め込みのための OpenAI API キー | ◯ | |
OPENROUTER_API_KEY | 代替モデルのための OpenRouter API キー | ✗ | OpenRouter モデルを使用する場合にのみ必須です |
PORT | API サーバーのポート(デフォルト:8001) | ✗ | API とフロントエンドを同じマシンでホストする場合、NEXT_PUBLIC_SERVER_BASE_URLのポートを適宜変更してください |
SERVER_BASE_URL | API サーバーのベース URL(デフォルト:http://localhost:8001) | ✗ |
DeepWikiはシステムの様々な側面を管理するためにJSON設定ファイルを使用しています:
generator.json: テキスト生成モデルの設定
embedder.json: 埋め込みモデルとテキスト処理の設定
repo.json: リポジトリ処理の設定
デフォルトでは、これらのファイルはapi/config/ディレクトリにあります。DEEPWIKI_CONFIG_DIR環境変数を使用して、その場所をカスタマイズできます。
Docker を使用して DeepWiki を実行できます:
# GitHub Container Registryからイメージをプル
docker pull ghcr.io/asyncfuncai/deepwiki-open:latest
# 環境変数を設定してコンテナを実行
docker run -p 8001:8001 -p 3000:3000 \
-e GOOGLE_API_KEY=your_google_api_key \
-e OPENAI_API_KEY=your_openai_api_key \
-e OPENROUTER_API_KEY=your_openrouter_api_key \
-v ~/.adalflow:/root/.adalflow \
ghcr.io/asyncfuncai/deepwiki-open:latest
このコマンドは、ホスト上の ~/.adalflow をコンテナ内の /root/.adalflow にマウントします。このパスは以下のものを保存するために使用されます:
これにより、コンテナが停止または削除されてもデータが永続化されます。 または、提供されている docker-compose.yml ファイルを使用します。
# まず.envファイルをAPIキーで編集
docker-compose up
(docker-compose.yml ファイルは、上記の docker run コマンドと同様に、データ永続化のために ~/.adalflow をマウントするように事前設定されています。)
.env ファイルをコンテナにマウントすることもできます:
# APIキーを含む.envファイルを作成
echo "GOOGLE_API_KEY=your_google_api_key" > .env
echo "OPENAI_API_KEY=your_openai_api_key" >> .env
echo "OPENROUTER_API_KEY=your_openrouter_api_key" >> .env
# .envファイルをマウントしてコンテナを実行
docker run -p 8001:8001 -p 3000:3000 \
-v $(pwd)/.env:/app/.env \
-v ~/.adalflow:/root/.adalflow \
ghcr.io/asyncfuncai/deepwiki-open:latest
このコマンドは、ホスト上の ~/.adalflow をコンテナ内の /root/.adalflow にマウントします。このパスは以下のものを保存するために使用されます:
これにより、コンテナが停止または削除されてもデータが永続化されます。
Docker イメージをローカルでビルドしたい場合:
# リポジトリをクローン
git clone https://github.com/AsyncFuncAI/deepwiki-open.git
cd deepwiki-open
# Dockerイメージをビルド
docker build -t deepwiki-open .
# コンテナを実行
docker run -p 8001:8001 -p 3000:3000 \
-e GOOGLE_API_KEY=your_google_api_key \
-e OPENAI_API_KEY=your_openai_api_key \
-e OPENROUTER_API_KEY=your_openrouter_api_key \
deepwiki-open
API サーバーは以下を提供します:
詳細については、API README を参照してください。
DeepWikiでは、複数のLLMプロバイダーをサポートする柔軟なプロバイダーベースのモデル選択システムを実装しています:
gemini-2.0-flash、また gemini-1.5-flash、gemini-1.0-pro などもサポートgpt-4o、また o4-mini などもサポートllama3 などのローカルで実行するオープンソースモデルをサポート各プロバイダーには、対応するAPI鍵の環境変数が必要です:
# API鍵 GOOGLE_API_KEY=あなたのGoogle API鍵 # Google Geminiモデルに必要 OPENAI_API_KEY=あなたのOpenAI鍵 # OpenAIモデルに必要 OPENROUTER_API_KEY=あなたのOpenRouter鍵 # OpenRouterモデルに必要 # OpenAI APIベースURL設定 OPENAI_BASE_URL=https://カスタムAPIエンドポイント.com/v1 # オプション、カスタムOpenAI APIエンドポイント用
カスタムモデル選択機能は、あなたの組織のユーザーに様々なAIモデルの選択肢を提供するために特別に設計されています:
サービスプロバイダーは、事前定義されたオプションから選択するか、フロントエンドインターフェースでカスタムモデル識別子を入力することで、モデル提供を実装できます。
OpenAIクライアントのbase_url設定は、主にプライベートAPIチャネルを持つエンタープライズユーザー向けに設計されています。この機能は:
近日公開: 将来のアップデートでは、ユーザーがリクエストで自分のAPI鍵を提供する必要があるモードをDeepWikiがサポートする予定です。これにより、プライベートチャネルを持つエンタープライズ顧客は、DeepWikiデプロイメントと認証情報を共有することなく、既存のAPI設定を使用できるようになります。
DeepWiki は、モデルプロバイダーとして OpenRouter をサポートするようになり、単一の API を通じて数百の AI モデルにアクセスできるようになりました。
OpenRouter は特に以下のような場合に便利です:
質問機能を使用すると、検索拡張生成(RAG)を使用してリポジトリとチャットできます:
詳細調査は、複数ターンの研究プロセスでリポジトリ分析を次のレベルに引き上げます:
詳細調査を使用するには、質問を送信する前に質問インターフェースの「詳細調査」スイッチをオンにするだけです。
DeepWiki のメインインターフェース
個人アクセストークンを使用したプライベートリポジトリへのアクセス
詳細調査は複雑なトピックに対して多段階の調査を実施
DeepWiki の動作を見る!
.envファイルがプロジェクトのルートにあり、必要な API キーが含まれていることを確認貢献は歓迎します!以下のことを自由に行ってください:
このプロジェクトは MIT ライセンスの下でライセンスされています - 詳細はLICENSEファイルを参照してください。