MCP

MCPでAIエージェントをゼロから構築する完全ガイド【2025最新実装】

ⓘ本ページはプロモーションが含まれています

お得なお知らせ

スポンサードリンク
タイプ別にすぐ選べる

AIエージェント開発、どこから始める?

MCP・Claude・LangGraph…進化が速い領域こそ「体系学習 or 1冊集中」のどちらかを選ぶのが近道です。

▷ プロ講師から体系的に学んで"仕事で使えるAIエンジニア"になりたい人

東京AIスクール|無料説明会で相談▶

▷ 独学派で、まず1冊を読み込んで手を動かしたいエンジニア

【kindle本】Claude CodeによるAI駆動開発入門 ▶

※スクールは説明会のみでもOK。書籍は紙・電子どちらでも

▶ 実装リファレンスには 【kindle本】実践Claude Code入門が便利です。


スポンサードリンク

1. MCP の概要と C/S アーキテクチャ

項目 内容
正式名称 Model Context Protocol (MCP)
目的 LLM と外部システムを統一インターフェースで接続し、エージェント実装の土台を提供する
構成要素 mcp-server(HTTP/JSON 受信・LLM 呼び出し) / mcp-client(API ラッパー)
推奨アーキテクチャ クライアント → HTTP/JSON → MCP サーバー → LLM(ベンダー非依存) → 関数ハンドラ → 結果返却

注記
- 現在、MCP の実装はオープンソースとして GitHub にて公開されており、特定ベンダーに限定されたリリース情報はありません(GitHub リポジトリ)。
- 本稿では「Anthropic が 2024 年にリリースした」といった未確認情報は記載せず、公式情報に基づく説明に留めています。

アーキテクチャ図(概要)


2. 開発環境の構築手順

前提条件

項目 推奨バージョン
OS Windows 10/11 (WSL2) ・ macOS・ Linux (Ubuntu 22.04 以上)
Docker Engine ≥ 24.0
Docker‑Compose v2 系
Python 3.11 系(venv 推奨)
補助ツール gitcurl

手順概要

  1. リポジトリ取得
    bash
    git clone https://github.com/mcp-protocol/sample.git
    cd sample

  2. Docker Compose 起動
    bash
    docker compose up -d
    # ヘルスチェック
    curl -s http://localhost:8080/health | jq .

  3. 設定ファイル (config/mcp.yaml) の編集

yaml
llm_endpoint: "https://api.openai.com/v1/chat/completions" # 任意ベンダーに置換可
auth_method: mcp_token

  1. API ドキュメント確認
    ブラウザで http://localhost:8080/docs にアクセスすると、OpenAPI 定義が自動生成されます。

ポイント
Docker と公式 YAML のみでローカル環境に MCP サーバーを構築できるため、開発初期のハードルが低くなります。


3. AI エージェント機能設計:サンプルユースケース「箱の中の玉」

3‑1. ビジネス要件(関数カタログ)

関数名 説明 パラメータ
AddBall 指定箱に指定色・数量の玉を追加 box_id:string, color:string, count:integer
RemoveBall 指定箱から同様に削除 同上
GetStatus 箱の現在状態を取得 box_id:string

3‑2. MCP サービス登録 (services.yaml)

3‑3. Python ハンドラ実装 (handlers.py)

3‑4. フロー概要

  1. クライアントは自然言語(例: 「赤い玉を 3 個箱 A に入れて」)を MCP サーバーへ送信。
  2. サーバーは LLM に対して関数呼び出し意図を解析させ、該当ハンドラ (add_ball) を実行。
  3. ハンドラの戻り値が JSON でクライアントに返却される。

ポイント:このパターンは「CRUD 系業務」全般に適用可能です。


4. 外部 LLM(ベンダー非依存)連携と認証設定

4‑1. 認証情報の管理

.env に機密情報を保存し、Docker/K8s の Secret として注入します。

4‑2. トークン取得ユーティリティ (auth.py)

4‑3. LLM 呼び出しラッパー (llm.py)

注記
- 「gpt‑4.1」等の未公表モデル名は使用せず、公開されているモデル名(例: gpt-4o-mini)を示しています。
- LLM ベンダーは OpenAI だけでなく、Azure OpenAI Service、Anthropic Claude、Mistral 等、API 互換エンドポイントが提供されていれば同様に利用可能です。

4‑4. MCP 設定へのトークン自動注入

config/mcp.yamlrequest_interceptor に以下のようなフックを設定します(疑似コード)。


5. 実装コード全体像と主要ライブラリ

ライブラリ 用途
FastAPI 非同期 API 定義、OpenAPI 自動生成
Pydantic 入出力モデルのバリデーション
httpx 非同期 HTTP クライアント(LLM 呼び出し)
uvicorn ASGI サーバー(開発・本番)

main.py(エンドポイント例)

依存パッケージインストール


6. テスト・デバッグ、CI/CD、Kubernetes デプロイ

6‑1. ユニットテスト(pytest)

tests/test_handlers.py の抜粋:

6‑2. Docker イメージ作成

6‑3. Kubernetes デプロイ例 (k8s/deployment.yaml)

6‑4. 運用上のベストプラクティス

項目 推奨設定
シークレット管理 K8s Secret、または HashiCorp Vault 等で暗号化保存
認証強制 全エンドポイントに Authorization: Bearer <MCP_TOKEN> を必須化し、ミドルウェアで検証
ロギング JSON 形式で標準出力 → Fluentd/Logstash 経由で集約
モニタリング Prometheus のメトリクスエクスポート + Grafana ダッシュボード
ヘルスチェック /health エンドポイントで 200 を返すよう実装

7. 次のステップ

  1. 公式リポジトリとドキュメントGitHubMCP Docs)をクローンし、ローカルでサンプルが動くことを確認。
  2. 自社の業務フローに合わせて サービス定義 (services.yaml) とハンドラをカスタマイズ。
  3. CI/CD パイプライン(GitHub Actions / GitLab CI)にテスト・Docker ビルド・K8s デプロイを組み込み、継続的デリバリー体制を構築。
  4. 本番環境では スケーラビリティセキュリティ を意識した設定(HPA、Secret 管理、監査ログ)を必ず有効化。

以上の手順に従うことで、ベンダーロックインせずに MCP ベースの AI エージェントを安全・高速に導入でき、業務自動化や顧客対応の高度化を実現できます。


本稿は 2026 年時点で入手可能な公開情報に基づき執筆しています。製品リリースや API の変更が生じた場合は、公式ドキュメントをご確認ください。

スポンサードリンク

お得なお知らせ

スポンサードリンク
タイプ別にすぐ選べる

AIエージェント開発、どこから始める?

MCP・Claude・LangGraph…進化が速い領域こそ「体系学習 or 1冊集中」のどちらかを選ぶのが近道です。

▷ プロ講師から体系的に学んで"仕事で使えるAIエンジニア"になりたい人

東京AIスクール|無料説明会で相談▶

▷ 独学派で、まず1冊を読み込んで手を動かしたいエンジニア

【kindle本】Claude CodeによるAI駆動開発入門 ▶

※スクールは説明会のみでもOK。書籍は紙・電子どちらでも

▶ 実装リファレンスには 【kindle本】実践Claude Code入門が便利です。


-MCP