Contents
n8n のインストールと 2026 年時点での推奨設定
業務自動化を本格的に導入する際、まずは n8n 本体を安定して稼働させること が最重要です。このセクションでは、公式が提供している Docker、npm(CLI)、そしてマネージド SaaS の n8n.cloud の 3 つのインストール方法を比較し、2026 年 4 月時点で推奨されている設定項目や最新情報をまとめます。
結論としては、本番環境では Docker が最もスケーラブルかつ保守性が高く、開発・検証フェーズでは npm、インフラ運用コストを抑えたい場合は n8n.cloud が有効です。
Docker での導入手順
Docker は「環境差異によるトラブル」を最小化できるため、本番向けに最も広く採用されています。公式 Docker Hub のイメージタグは随時更新されており、2026 年 4 月リリース時点の最新安定版は n8nio/n8n:0.236.0(※Docker Hub)です。
docker‑compose.yml の基本構成
以下は公式ドキュメントに準拠した最小構成です。データ永続化 と 認証設定 を必ず含めるようにします(※n8n docs – Docker deployment)。
|
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 |
version: "3.8" services: n8n: image: n8nio/n8n:0.236.0 restart: always ports: - "5678:5678" environment: # データベース設定(PostgreSQL 推奨) - DB_TYPE=postgresdb - DB_POSTGRESDB_HOST=db - DB_POSTGRESDB_PORT=5432 - DB_POSTGRESDB_DATABASE=n8n - DB_POSTGRESDB_USER=n8n_user - DB_POSTGRESDB_PASSWORD=${POSTGRES_PASSWORD} # Basic Auth(外部からの不正アクセス防止) - N8N_BASIC_AUTH_ACTIVE=true - N8N_BASIC_AUTH_USER=${BASIC_USER} - N8N_BASIC_AUTH_PASSWORD=${BASIC_PASS} volumes: - n8n-data:/home/node/.n8n volumes: n8n-data: |
- データ永続化 は
volumesによりコンテナ再起動やイメージ更新時でもワークフローが失われません。 - 環境変数の管理 は本番サーバーでは
.envファイルに機密情報を格納し、Docker が自動的に読み込む形が安全です(例:POSTGRES_PASSWORD、BASIC_USER、BASIC_PASS)。
デプロイ手順
|
1 2 3 |
# .env を用意したら以下で起動 docker compose up -d |
起動後は http://<サーバーIP>:5678 へアクセスし、UI が表示されれば完了です。
ポイント:Docker は「一度構築すればスケールアウトが容易」なので、マルチノード構成や Kubernetes への移行もシームレスに行えます。
npm(CLI)でのセットアップ
小規模な PoC やローカル開発では npm によるインストールが手軽です。公式 GitHub の README(※GitHub – n8n)に記載された手順をベースに、バージョン管理と永続化のポイントを補足します。
|
1 2 3 4 5 6 |
# nvm で Node.js バージョンを固定(例: v20.12.0) nvm install 20.12.0 && nvm use 20.12.0 # グローバルに最新安定版をインストール npm install -g n8n@0.236.0 # Docker と同一バージョンを推奨 |
- バージョン管理:
nvmを併用すると、プロジェクトごとに異なる n8n バージョンを簡単に切り替えられます。 - データ永続化: デフォルトではホームディレクトリの
.n8nに保存されますが、環境変数N8N_USER_FOLDER=/opt/n8n-dataを設定すれば任意の場所へ変更可能です。
ポイント:npm インストールは「セットアップ速度」と「バージョン切替えの柔軟性」に優れ、開発・社内勉強会に最適です。
n8n.cloud の利用シーンとプラン情報
マネージド SaaS 版である n8n.cloud はインフラ管理コストを削減したい企業向けに提供されています。2026 年 5 月に改訂された公式プランは以下の通りです(※n8n.cloud pricing)。
| プラン | 月額 (EUR) | 同時実行ワークフロー数 | データ保持期間 | カスタムドメイン |
|---|---|---|---|---|
| Standard | €49 | 最大 10 | 30 日 | 利用不可 |
| Enterprise | €199(最低年契約) | 無制限 | カスタム設定可 | 利用可能 |
- 認証情報の管理 は UI の「Credentials」→「Secrets」で暗号化保存され、環境変数と同様に安全に参照できます。
- IP 制限 はプランごとのオプションとして提供され、外部からの不正アクセス対策が容易です。
ポイント:n8n.cloud は「インフラ運用不要」ですが、細かいチューニングや自前データベースを使用したい場合は Docker/npm が依然として有効です。
公式 AI ノードと主要ベンダーの概要(2026 年版)
2024 年にリリースされた AI ノードは、2026 年 4 月のメジャーアップデートで OpenAI・Anthropic・Google の最新モデル が標準装備になりました。ここでは各ベンダーごとの特徴、設定項目、および公式情報へのリンクを整理します。
OpenAI GPT‑4 / 3.5 ノード
- 対応モデル:
gpt-4o(マルチモーダル)、gpt-4-turbo、gpt-3.5-turbo - 主なパラメータ: temperature、max_tokens、top_p、presence_penalty、frequency_penalty
- 新機能(2026 年 4 月): UI 上で画像入力(Vision)と関数呼び出し(Function Calling)が直接設定可能【OpenAI Docs – Function calling (2026‑04)】
ポイント:テキスト生成だけでなく、画像認識や外部 API 呼び出しが必要な業務フローに最適です。
Anthropic Claude ノード
- 対応モデル:
claude-3.5-sonnet、claude-3-opus - 特徴: フィルタリングが強化され、安全性が高い。長文コンテキストは最大 100k トークンまで保持可能【Anthropic Pricing (2026‑05)】
- 設定項目: temperature、max_output_tokens、system_prompt
ポイント:法務・医療など誤生成リスクを極力抑えたいシーンで有効です。
Google Gemini ノード
- 対応モデル:
gemini-1.5-pro、gemini-1.5-flash - 新機能(2026 年 5 月): リアルタイム翻訳とコード補完モードが追加。パラメータは temperature、max_output_tokens、top_k など【Google Gemini Documentation (2026‑05)】
- ユースケース例: 多言語カスタマーサポート、社内開発者向けコードレビュー支援
ポイント:Google の大規模インフラとシームレスに連携できる点がスケールアウトを考える組織に有利です。
認証・API キー管理とセキュリティベストプラクティス
AI ノードは外部サービスへの認証情報が必須です。機密情報の漏洩防止には 環境変数 と n8n Secrets を適切に使い分けることが重要です。
環境変数と n8n Secrets の比較
| 管理方法 | 保存先 | 参照方法 | 推奨シーン |
|---|---|---|---|
環境変数 (process.env) |
OS レベル、Docker .env |
{{ $env.YOUR_KEY }} |
CI/CD パイプラインやコンテナデプロイ時の自動化 |
| n8n Secrets | データベース暗号化(.n8n/secrets.json) |
{{ $credentials.myApiKey }} |
UI から直接設定し、複数ワークフローで共有したい場合 |
ポイント:機密情報は必ず Secrets に格納し、Git リポジトリに平文が残らないよう徹底します。
API キーのローテーション手順(実務向け)
- 各ベンダーコンソールで新しいキーを発行。
- n8n の Settings → Credentials から「Add Credential」→該当ベンダーを選択し、新鍵を登録。
- ワークフローのノード設定画面でドロップダウンから新しい Credential に切り替える。
- 全ワークフローが新鍵に置き換わったことを確認後、旧キーを削除。
自動化したい場合は GitOps と組み合わせ、n8n-secrets.yaml をリポジトリで管理し、CI が定期的にキー更新スクリプト(例: scripts/rotate‑keys.sh)を実行します。
IP 制限・データ保持ポリシーの設定例
- IP 制限:OpenAI の API キーは「Allowlist」機能で自社サーバ固定 IP(例:
203.0.113.45/32)のみ許可。 - データ保持:n8n の環境変数
EXECUTIONS_DATA_SAVE_MANUAL=trueとN8N_EXECUTIONS_PROCESS=mainを設定し、実行結果は 30 日間だけ保存。古いログは Cron ジョブで自動削除します。
ポイント:最小権限の原則 に基づき、必要最低限の IP と保持期間だけを許可することでリスクを大幅に低減できます。
実践ハンズオン:AI ワークフロー構築ステップバイステップ
ここでは「問い合わせ自動応答」フローを例に、Webhook → AI ノード → 条件分岐 → 通知(Slack/メール) の一連の流れを実装します。初心者でも 10 分以内で動作確認できるよう設計しています。
フローデザイン概要
- Webhook トリガ:外部システムから POST リクエストを受信し、JSON
{ "message": "...", "lang": "ja" }を取得。 - OpenAI GPT‑4o ノード:顧客問い合わせの要約と回答案作成。
- If 条件分岐:生成テキストに「緊急」や「エラー」のキーワードが含まれるか判定。
- 通知ノード:キーワードあり → Slack で即時アラート、なし → Gmail で自動返信メール送信。
各ノードの設定ポイント
| ノード | 主な設定項目 | 補足 |
|---|---|---|
| Webhook | HTTP メソッド: POSTパス: /webhook/contact認証: Basic Auth(環境変数 N8N_BASIC_AUTH_*) |
認証は必須。テスト時は Postman で送信可 |
| OpenAI GPT‑4o | Model: gpt-4oPrompt: 「以下の顧客問い合わせを日本語で要約し、回答案を作成してください。」 Temperature: 0.3Max Tokens: 500 |
Temperature を低めに設定すると出力が安定 |
| If | Expression: {{$json["response"]?.includes("緊急")}}(JavaScript 式) |
複数キーワードは正規表現で一括判定可能 |
| Slack / Gmail | Credentials にそれぞれの API キーを Secrets 経由で設定 メッセージテンプレートに {{$json.response}} を埋め込む |
送信元メールアドレスは組織用に統一しておくと管理しやすい |
エラーハンドリングとリトライ
- Error Trigger:ワークフロー末尾に配置し、失敗したステップの情報を Slack に通知。
- Retry 設定:各ノードの「Retry」タブで
maxAttempts: 3、delayMs: 2000を設定し、一時的な API 障害にも自動復旧させる。 - ログ取得:
Settings → Execution Logから JSON ログをエクスポートでき、CLI (n8n export:executions) でもバッチ取得可能。
ポイント:ノード間はすべて JSON パス と テンプレート文字列 でデータ受け渡しでき、コード不要でフローが完結します。
モデル選定基準と 2026 年料金比較表
AI を業務フローに組み込む際は「コスト」だけでなく「応答速度」「精度」「利用シーン」の総合評価が必要です。以下の表は 2026 年 4–5 月時点の公式公開価格を元に作成しました(※全て各ベンダーの料金ページから取得、為替レートは概算 USD/EUR=1.09)。
| ベンダー | モデル | トークン単価 (USD) | 月間無料枠 | 推奨利用シーン |
|---|---|---|---|---|
| OpenAI | gpt-4o |
$0.005 / 1k token | 100 K トークン(≈$0.50) | 高精度・マルチモーダル |
| OpenAI | gpt-3.5-turbo |
$0.0015 / 1k token | 500 K トークン | 大量問い合わせの低コスト処理 |
| Anthropic | claude-3.5-sonnet |
$0.004 / 1k token | 50 K トークン | 法務・医療など安全性重視 |
gemini-1.5-pro |
$0.0038 / 1k token | 100 K トークン | 多言語翻訳・コード補完 | |
gemini-1.5-flash |
$0.0022 / 1k token | 200 K トークン | 高速応答が求められるチャットボット |
モデル選定チェックリスト(抜粋)
- 精度 vs コスト
- 重要文書の要約や契約書レビューは GPT‑4o が最適。
-
シンプルな FAQ は Gemini‑flash がコストパフォーマンス良好。
-
レスポンス速度
-
Google の公式ベンチマーク(2026‑05)によると、Gemini‑flash は同等トークン量で約 20 % 高速【Google Cloud Metrics (2026‑05)】。
-
トークン消費効率
- 長文要約やコードレビューは Claude‑sonnet がトークンあたりの出力品質が高く、結果的にコスト削減につながる。
ポイント:実運用では「1日あたりのリクエスト数 × 平均トークン数」でシミュレーションし、上記表と照らし合わせて最適モデルを選択してください。
まとめ(要点)
- インストール: 本番環境は Docker が推奨。npm は開発・PoC に便利で、n8n.cloud は運用コスト削減に有効だが機能制限あり。
- 公式 AI ノード: 2026 年 4/5 月リリースのアップデートで OpenAI、Anthropic、Google の最新モデルが標準装備。画像入力や関数呼び出しといった高度な機能も UI だけで設定可能。
- 認証・セキュリティ: 機密情報は必ず n8n Secrets に保存し、定期的にローテーション。IP Allowlist とデータ保持期間の最小化でリスクを低減。
- ハンズオン例: Webhook → GPT‑4o → 条件分岐 → Slack/メール のフローは 10 分以内に構築可能。エラーハンドリングとリトライ設定は必ず組み込むこと。
- モデル選定: 「精度・速度・コスト」の三要素で評価し、公式料金表と実際のトラフィックシミュレーションを元に最適モデルを決定する。
上記手順とベストプラクティスに従えば、2026 年最新版の n8n と主要 AI サービスを実務レベルで即座に活用でき、業務効率化とコスト最適化の両立が可能です。
本記事は執筆時点(2026‑05‑17)の公式情報を元に作成しています。バージョンや料金は変更される可能性があるため、導入前に各公式サイトで最新情報をご確認ください。