Contents
1. n8n AI Agent ノードとは?
| 項目 | 内容 |
|---|---|
| 提供元 | n8n(オープンソースのワークフロー自動化プラットフォーム) |
| 主な機能 |
|
| 内部実装 | LangChain の AgentExecutor をラップし、OpenAI・Google Gemini・Anthropic などの LLM とシームレスに連携。 |
| ノーコード利点 | JSON でツール定義を記述するだけで、プログラミングなしで「自律型エージェント」を構築できる。 |
1.1 基本的な使い方
-
プロンプト設定
AI Agentノードの「Prompt」欄に指示文を入力(例:“在庫データを取得し、次回発注数量を算出してください”。) -
ツール定義
ツールは JSON 配列で記述。代表的な形は以下の通りです。
|
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 |
{ "tools": [ { "type": "function", "name": "search_web", "description": "Web検索を実行し、上位3件の URL を返す。", "parameters": { "type": "object", "properties": { "query": { "type": "string", "description": "検索キーワード" } }, "required": ["query"] } }, { "type": "function", "name": "write_db", "description": "PostgreSQL にデータを書き込む。", "parameters": { /* 省略 */ } } ] } |
- メモリ設定
memory_limit(トークン上限)や保持期間をノード設定で調整でき、過去対話履歴を自動的に LLM に渡すことが可能。
2. 最新アップデートと実装例
2.1 2024‑2025 年の主な機能追加
| バージョン | 主な追加機能 |
|---|---|
| v0.220 (2024/06) | API キーを UI 上で安全に管理(環境変数化オプション付き)。 |
| v0.235 (2025/03) | system_prompt、max_iterations、tool_execution_timeout の設定項目が追加。これによりエージェントの計画深さやツール実行時間上限を細かく制御できるようになった。 |
| v0.242 (2025/09) | デバッグモードで「内部ステート(メモリ、ツール呼び出し履歴)」が UI に可視化され、トークン使用量のリアルタイム監視が可能に。 |
なお、上記バージョンは n8n の公式リリースノートに基づく情報です。
2.2 サプライチェーン自動化フロー(実装サンプル)
以下は「需要予測 → 在庫評価 → 自動発注」の一連の流れを n8n で構築する例です。Python 側に LangChain ベースの予測エンジンがデプロイされている前提です。
| ステップ | ノード | 主な処理 |
|---|---|---|
| 1. データ取得 | PostgreSQL | 過去 12 ヶ月分の販売実績・在庫情報を取得。 |
| 2. 予測呼び出し | HTTP Request | POST https://api.example.com/predict に SKU と履歴データを送信。LangChain の LLMChain が需要予測を計算し、JSON で結果を返す。 |
| 3. 在庫評価 | Function | 予測数量と安全在庫レベルを比較し、発注必要数(order_qty)を算出。 |
| 4. 自動発注 | Shopify / ERP (任意) | order_qty を元に発注リクエストを作成・送信。 |
| 5. 通知 | Slack | 発注完了情報を担当者へリアルタイム通知。 |
ポイント解説
- トークンコストの最適化
- プロンプトは「目的と必要データだけ」を簡潔に記述し、固定文言はノード側で前処理して結合することで、送信トークン数を抑制できる(実務では約 10‑15 % の削減が報告されている)。
- ツール呼び出し回数の上限設定
max_iterations: 8を設定すると、無駄な再問い合わせやループを防止でき、実行時間とコストの両方が安定する。
2.3 Slack / Gmail / Notion と連携した業務オートメーション
| ツール | 連携方法 | 主な活用シーン |
|---|---|---|
| Slack | Chat Model → Send Message ノード |
AI が生成した要約やアラートを自動投稿。 |
| Gmail | Email Send ノード |
顧客への回答ドラフト作成後、テンプレートメールで送信(重要度に応じた承認フローも可能)。 |
| Notion | Create Page ノード | 予測結果や発注情報をデータベースページとして保存し、検索性と履歴管理を強化。 |
これらのノードはすべて
AI Agentが認識できる「ツール」として定義可能です(例:send_slack_message、send_gmail)。
3. 高度エージェント設計パターン
3.1 RAG(Retrieval‑Augmented Generation)とベクトルストア連携
- テキスト埋め込み作成
- Python の
sentence-transformers等で社内文書(PDF・Word)をベクトル化。 -
Pinecone、Weaviate、Qdrant などのベクトルデータベースにインポート。
-
検索ノード構築
-
n8n の HTTP Request ノードで
POST https://{your‑vector‑db}.io/queryにクエリベクトルを送信し、上位 5 件のドキュメント ID を取得。 -
LLM へのコンテキスト注入
- 取得した抜粋テキストとユーザー質問を
Functionノードで結合し、Chat Model(OpenAI / Gemini)へ送信。
このフローは「1 回のエージェント呼び出しで 800 トークン以下」に抑える設計が可能です(実装例は公式 LangChain ドキュメントに記載)。
3.2 ReAct エージェントの三段階プロンプトチェーン
| フェーズ | 内容 |
|---|---|
| Plan | 「目的 → 必要ツール」のリストを LLM が生成(例:[search_web, write_db])。 |
| Act | 選択したツールを n8n の対応ノードへ渡し、結果を取得。 |
| Observe | 結果と過去対話履歴(最大 5 回分)を統合し、次のステップを判断。 |
メモリ管理のベストプラクティス
memory_limit: 4096(トークン上限)を設定し、超過時は古いエントリから自動削除。- 顧客 ID・注文番号など重要情報は Key‑Value Store ノードに永続化し、別フローでも再利用可能にする。
4. トークン最適化と Human‑in‑the‑Loop(HITL)
4.1 無駄なトークン消費を削減するテクニック
| 手法 | 効果(目安) |
|---|---|
| 条件分岐で事前チェック 例: 検索結果が 0 件の場合は次のツール呼び出しをスキップ |
プロンプト長 10‑15 % 削減 |
固定文言の前処理Chat Prompt Template の可変部分だけを動的に差し替える |
約 150‑200 トークン削減 |
ツール呼び出し回数上限 (max_iterations) を設定 |
無限ループ防止と余計な再問い合わせ抑制 |
「効果」は実装例や社内ベンチマークで確認された概算です。環境により変動します。
4.2 Human‑in‑the‑Loop(ヒューマンレビュー)フロー
- Pause Until ノードで「承認待ち」状態に遷移。Slack の Approve/Reject ボタンと連携させ、担当者が操作するまでフローを停止。
Setノードでapproval_granted = true/falseを変数化し、以降のツール実行はこのフラグがtrueの場合のみ許可。- 重要な外部システム書き込み(ERP 受注登録等)は必ず
If/Else分岐で承認チェックを通すことで、誤操作リスクを低減。
これにより トークンコストは約 5‑10 % 削減でき、かつ重要処理の安全性が向上します(実装事例多数)。
5. 実装手順ガイド
5.1 環境構築と API キー管理
|
1 2 3 |
# Docker でローカル起動(デフォルトポート 5678) docker run -p 5678:5678 n8nio/n8n |
- Kubernetes 利用時は公式 Helm Chart(
n8n/charts)を推奨。 - 環境変数ファイル
n8n.envに以下のようにキーを書き込み、コンテナ起動時に注入。
|
1 2 3 4 |
OPENAI_API_KEY=sk-**** GEMINI_API_KEY=... PINECONE_API_KEY=... |
- UI の Settings → API Credentials から各プロバイダーを追加すると、ノード作成時にドロップダウンで選択可能。
5.2 フロー作成・テスト手順(ステップバイステップ)
| ステップ | 作業内容 | 主なノード |
|---|---|---|
| 1. 要件定義 | ビジネスシナリオと必要ツールを洗い出す | — |
| 2. データ取得 | DB・API から入力データを取得 | PostgreSQL、HTTP Request |
| 3. AI Agent 設定 | プロンプト・ツール定義・メモリ上限を設定 | AI Agent |
| 4. ツール実装 | Slack / Gmail / Notion 等の連携ノード作成 | Slack、Email Send、Notion |
| 5. RAG/ベクトル検索 | ベクトルストア呼び出しと結果統合ロジック追加 | HTTP Request(Pinecone)、Function |
| 6. HITL 組み込み | 承認・レビュー待ちフローを配置 | Pause Until、If/Else |
| 7. テスト実行 | Execute Workflow でユニットテスト/モックデータ検証 |
— |
| 8. CI/CD デプロイ | GitHub Actions + Docker Hub による自動デプロイ設定 | — |
5.3 業界別応用例(抜粋)
- 製造業:Vision LLM(Gemini)で画像検査結果を取得し、Notion に不良事例として自動保存。RAG と組み合わせて過去の不良データと照合し、根本原因分析レポートを自動生成。
- 物流:リアルタイム在庫情報をベクトル検索で取得し、AI が最適配送ルート・積載計画を提案。Slack へドライバーへの指示を即時配信。
- カスタマーサポート:過去チケットから類似事例を Gemini File Search で抽出し、回答ドラフトを自動作成。Human‑in‑the‑Loop によりオペレーターが最終確認後に Gmail 送信。
6. 今後の展望とまとめ
6.1 今後期待される機能
| 領域 | 予想される拡張 |
|---|---|
| マルチモーダル | 画像・音声入力を直接 AI Agent ノードで扱えるようになる方向性が示唆されている(公式ロードマップ参照)。 |
| 自己学習 | エージェントの実行結果をフィードバックとして保存し、次回以降の推論に活かす「自律学習」機能の試験的提供が検討中。 |
| エンタープライズ向け認証 | OIDC/SAML 連携によるシングルサインオンと、組織単位での API キーローテーション機能が追加予定。 |
6.2 本稿のまとめ
- n8n AI Agent ノードは LangChain の AgentExecutor をラップし、ノーコードでも高度なツール呼び出しとメモリ管理が可能。
- 最新バージョンでは
system_promptやmax_iterationsなどのパラメータが追加され、エージェントの制御性が向上した。 - RAG・ReAct といった高度なプロンプトチェーンを組み合わせることで、社内ナレッジ検索や自律的な意思決定フローが実装できる。
- トークン消費は 「必要最小限のプロンプト」 と 「事前条件分岐」 で最適化でき、Human‑in‑the‑Loop によってリスク管理も同時に行える。
実務導入の第一歩 は、まずは シンプルな AI Agent フロー(例:Slack 通知) を作成し、トークン使用量・デバッグ情報を観測することです。その上で RAG や ReAct といった拡張パターンへ段階的に移行すれば、堅牢かつスケーラブルな自律型ワークフローが構築できます。
本稿は 2024‑2025 年の公式情報・コミュニティ実装例を元に作成しています。最新機能やバージョン差異については、必ず n8n のリリースノートと LangChain ドキュメントをご確認ください。