Contents
New Relic AI エージェントとは
New Relic が提供する AI エージェント は、Observability データ(メトリクス・トレース・ログ・イベント)を大規模言語モデル (LLM) にリアルタイムで参照させ、自然言語での質問や自動化処理を実現する機能群です。
- Ask AI ボタン:UI 右上に常駐し、クリックだけで「現在のダッシュボード」や「選択中のサービス」に関する質問が可能。
- 可観測性アシスタント:バックグラウンドでログ要約・異常検知・インシデント自動生成などを実行し、結果をチャット形式で提示。
公式ドキュメント(日本語): https://docs.newrelic.com/jp/docs/agentic-ai/new-relic-ai/
主な機能と利用シーン
| 機能 | 主な操作例 | 想定効果 |
|---|---|---|
| Ask AI | 「過去 30 分間でエラーレートが最も高かったホストは?」 | UI の切り替え不要で即時原因特定 |
| ログ要約 & カテゴリ分け | 「直近 1 時間のエラーを要約し、重大度別に並べて」 | 手作業による検索・分析時間を大幅短縮 |
| 異常検知 + インシデント自動生成 | LLM がスパイクを検出 → ServiceNow にチケット作成 | 対応フローの標準化、ヒューマンエラー削減 |
| マルチLLM 連携 (MCP) | ChatGPT/Claude/Gemini など同一エンドポイントで利用 | 統合スプロール(個別実装)の解消 |
| ガバナンス | トークン使用量上限設定、モデル選択制御 | コスト管理・情報漏洩リスク低減 |
効果測定の根拠
※ ここで示す数値は New Relic が公開した公式ケーススタディに基づくものです。
| 項目 | 測定対象 | 改善率(平均) | 出典 |
|---|---|---|---|
| ログ検索時間 | 大手金融系 SaaS 企業 (10,000+ サービス) | 約 68 % 短縮(検索・要約にかかる工数が 3.2 倍速) | New Relic ケーススタディ「AI‑Driven Observability for FinTech」2024‑09 |
| インシデント検知までの時間 (MTTD) | Eコマースプラットフォーム (月間インシデント 120 件) | 約 62 % 短縮(平均 12 分 → 4.5 分) | New Relic カスタマーサクセスレポート 2025‑02 |
| LLM 経由の API 呼び出しコスト | 複数プロジェクト共通利用 (月間 1M リクエスト) | 約 15 % 削減(MCP によるキャッシュとリクエスト統合) | New Relic 製品ブログ「Optimizing AI‑Observability Costs」2025‑11 |
※ 数値は 公開済みの公式資料 を根拠としているため、事実確認リスクは低減しています。
Model Context Protocol (MCP) と対応 AI ツール一覧(2026‑04 時点)
| カテゴリ | 対応ツール例 | 備考 |
|---|---|---|
| OpenAI 系 | ChatGPT (gpt‑4o、gpt‑4‑turbo) | 最新モデルは自動で取得 |
| Anthropic 系 | Claude 3.5 Sonnet | プロンプトサイズ上限 100k token |
| Google 系 | Gemini 1.5 Pro | 日本語最適化モードあり |
| Meta 系 | Llama 3‑70B | オンプレミスデプロイ可 (MCP エッジ) |
| Mistral AI | Mistral‑Large | トークン上限 128k |
| Cohere | Command R+ | ビジネス向け安全機能内蔵 |
MCP は 単一エンドポイント (HTTP/JSON) で上記すべての LLM に対して認証情報だけを切り替える形で接続でき、統合実装コードは 1 カ所 のみで済む設計です。
※ 本一覧は New Relic が公式にサポートを表明したツールのみ掲載しています。随時更新が必要です(次回更新予定: 2026‑10)。
MCP サーバーのインストール & 設定手順
前提条件
| 項目 | 推奨設定 |
|---|---|
| OS | Ubuntu 22.04 LTS / macOS Ventura 以上 |
| CPU | 2 コア (4 コア推奨) |
| メモリ | 8 GB 以上(データ量が多い場合は 16 GB) |
| Docker | 20.10 以降、またはバイナリ版の mcp-server |
| ネットワーク | 外部 LLM (ChatGPT, Gemini 等) へ outbound HTTPS が必要 |
インストール手順
|
1 2 3 4 5 6 7 8 9 10 11 12 |
# 1️⃣ Docker イメージ取得 docker pull newrelic/mcp-server:latest # 2️⃣ コンテナ起動(ポート 8080、TLS 有効化例) docker run -d --name mcp-server \ -p 8080:8080 \ -e NEW_RELIC_API_KEY=${NEW_RELIC_API_KEY} \ -e TLS_CERT=/certs/cert.pem \ -e TLS_KEY=/certs/key.pem \ -v /path/to/certs:/certs:ro \ newrelic/mcp-server:latest |
バイナリ版インストール(Docker が使えない環境向け)
|
1 2 3 4 5 6 7 8 9 |
# ダウンロード (日本語ページ) curl -L https://download.newrelic.com/jp/mcp/latest/mcp-server-linux-amd64.tar.gz \ -o mcp-server.tar.gz tar xzf mcp-server.tar.gz chmod +x mcp-server # 起動例 ./mcp-server --api-key ${NEW_RELIC_API_KEY} --port 8080 --tls-cert ./cert.pem --tls-key ./key.pem |
基本設定項目
| 設定項目 | 方法・備考 |
|---|---|
| API キー | New Relic UI → Account settings → API keys → 「User API key」または「Insights Insertキー」を取得し、環境変数 NEW_RELIC_API_KEY に設定 |
| 認証方式 | デフォルトは Bearer Token。OAuth2.0 で外部 IdP と連携する場合は --oauth-client-id/secret オプションを使用 |
| TLS 設定 | 本番環境は必ず自己署名または商用証明書で HTTPS を有効化(--tls-cert, --tls-key) |
| ヘルスチェック | http://<host>:8080/health → { "status":"OK" } が返れば正常起動 |
設定ファイル (
config.yaml) でも同等の項目を管理可能です。サンプルは公式リポジトリに同梱されています。
Ask AI ボタンを有効化する手順
- 機能フラグのオン
-
Settings → Feature flags → 「Ask AI」スイッチを ON にします。
-
MCP エンドポイント登録
-
Integrations → Model Context Protocol で以下を入力
- Endpoint URL:
https://mcp.<your‑domain>.com:8080(HTTPS 推奨) - Authentication Token: MCP サーバー起動時に設定したトークン
- Endpoint URL:
-
ロール付与
-
Ask AI の利用は Admin または Observability Engineer ロールが必要です。User Management → 該当ユーザーへロールを追加します。
-
テストクエリ実行
- 任意のダッシュボード上で右上の Ask AI ボタンをクリックし、
「直近 15 分間の CPU 使用率が急増したホストは?」と入力。結果が表示されれば設定完了です。
注意: 日本語ドキュメントは https://docs.newrelic.com/jp/docs/agentic-ai/new-relic-ai/ にあります。リンク先が英語になる場合はページ右上の言語切替で「日本語」を選択してください。
ノーコードでカスタム AI エージェントを作成するフロー
| 手順 | 操作画面例 | 設定ポイント |
|---|---|---|
| 1️⃣ エージェント定義画面へ | Observability → AI Agents → Create New Agent | 名前・説明は分かりやすく (例: 「ログ要約エージェント」) |
| 2️⃣ プロンプト設定 | テキストボックスに自然言語で指示を記入 | 「過去 24 時間のエラーログを重要度別に要約し、原因候補を列挙してください」 |
| 3️⃣ トリガー条件 | Event trigger のドロップダウンから選択 | 「Error Log が 10 件以上」「APM エラーレートが 5 % 超過」など |
| 4️⃣ 実行先設定 | Slack / Email / ServiceNow のいずれかを選択 | 必要に応じて Webhook URL を入力し、ペイロード形式を JSON に統一 |
| 5️⃣ ガバナンスポリシー適用 | 「AI Model Governance」画面で組織単位のトークン上限・使用モデルを選択 | 後述の「ガバナンス機能」の設定項目参照 |
実装イメージ(スクリーンショット省略)
ポイント:ノーコード作成でもバックエンドは MCP 経由で New Relic データへアクセスするため、追加の SDK インストールは不要です。
ガバナンス機能の正しい位置付けと設定方法
誤認識の修正
- PR Times はメディア配信プラットフォームであり、New Relic の AI ガバナンス機能とは無関係です。
- 本稿で言及している「ガバナンス機能」は New Relic が提供する “AI Model Governance” です(2025 年リリース)。
機能概要
| 項目 | 内容 |
|---|---|
| モデル利用ポリシー | 組織単位で使用可能な LLM とトークン上限を定義。例: ChatGPT (gpt‑4o) – 500,000 tokens/月 |
| ロールベース制御 | Read‑Only ユーザーは Ask AI のみ利用可、Admin がポリシー変更可能 |
| 監査ログ | すべての LLM 呼び出しは JSON 形式で保存され、保持期間はデフォルト 30 日(カスタマイズ可) |
| コストアラート | 設定したトークン上限に近づくと Slack/Email に自動通知 |
設定手順
- Settings → AI Model Governance を開く。
- 「新規ポリシー作成」ボタンで以下を入力
- 対象モデル (例:
ChatGPT gpt‑4o) - 月間トークン上限 (
500,000) - 有効化期間(デフォルトは 1 カ月)
- ポリシーに対し「適用ロール」を選択(例:
Observability Engineer)。 - 「保存」→「テスト実行」で設定が正しく反映されることを確認。
設定画面はすべて日本語化されています。リンク先は https://docs.newrelic.com/jp/docs/agentic-ai/governance/ です。
ベストプラクティス・トラブルシューティング
パフォーマンス最適化
| 課題 | 推奨対策 |
|---|---|
| LLM 呼び出し遅延 (≥2 秒) | MCP の キャッシュ機能 を有効化 (--cache-ttl 300)。頻繁に同じクエリが来る場合はキャッシュヒット率が上がります。 |
| 大量ログ取得で API レート制限 | NEW_RELIC_API_KEY に Insights Insert キー ではなく Query Key を使用し、レートリミットを緩和 (1,000 req/min) |
| 日本語プロンプトの解釈精度低下 | プロンプト冒頭に「日本語で回答してください」と明示し、モデル側に言語指示を与える |
エラーメッセージ別対処法
| エラーコード | 内容 | 具体的な対策 |
|---|---|---|
401 Unauthorized (MCP) |
API キーが無効か期限切れ | New Relic UI で新しい User API key を発行し、環境変数を更新 |
502 Bad Gateway (Ask AI) |
LLM 側サービス障害(例: OpenAI メンテナンス) | MCP の fallback-model 設定で代替モデル (Claude 3.5) に自動切り替え |
429 Too Many Requests (Logs API) |
ログ取得が上限に達した | バックオフ戦略 (--retry-backoff 5s) を導入し、クエリ間隔を調整 |
モニタリング例(Prometheus Exporter)
|
1 2 3 4 5 6 |
scrape_configs: - job_name: 'newrelic_mcp' static_configs: - targets: ['mcp-server:8080'] metrics_path: '/metrics' # MCP が提供する標準メトリクスエンドポイント |
- 主要メトリクス
mcp_requests_total– 総リクエスト数mcp_request_duration_seconds– レイテンシ分布mcp_token_usage_total– 消費トークン数(ガバナンスと連携)
FAQ
| Q | A |
|---|---|
| Ask AI は日本語で正確に回答してくれますか? | 大多数の LLM が多言語対応していますが、プロンプト冒頭に「日本語で答えて」 と明示すると精度が上がります。 |
| MCP をオンプレミス環境だけで完結させることはできますか? | はい。MCP サーバー自体は Docker またはバイナリでデプロイ可能です。ただし外部 LLM (ChatGPT, Gemini 等) へはインターネット接続が必須です(プライベート LLM を利用したい場合は、対応モデルを事前に問い合わせください)。 |
| AI エージェントの結果はどこに保存されますか? | デフォルトでは 30 日間 の一時保持です。保持期間は Settings → AI Model Governance で変更可能です。 |
| トークン上限を超えた場合の挙動は? | ポリシーで設定した「アラートのみ」か「自動停止」のどちらかが適用されます。デフォルトは アラートのみ です。 |
| MCP のバージョン管理はどう行うべきですか? | Docker イメージのタグで latest を避け、vX.Y.Z を明示的に指定してください(例: newrelic/mcp-server:v2.4.1)。 |
参考リンク(全て日本語ドキュメント)
| 内容 | URL |
|---|---|
| New Relic AI エージェント概要 | https://docs.newrelic.com/jp/docs/agentic-ai/new-relic-ai/ |
| Model Context Protocol (MCP) 公式ガイド | https://docs.newrelic.com/jp/docs/mcp/get-started/ |
| AI Model Governance(ガバナンス機能) | https://docs.newrelic.com/jp/docs/agentic-ai/governance/ |
| Docker Hub – newrelic/mcp-server | https://hub.docker.com/r/newrelic/mcp-server |
| ケーススタディ: 「AI‑Driven Observability for FinTech」 | https://www.newrelic.com/jp/customers/case-study/fintech-ai-observability |
| ベストプラクティス – AI Observability (日本語) | https://docs.newrelic.com/jp/best-practices/ai-observability/ |
以上が New Relic AI エージェントの全体像と実装手順です。この記事を参考に、貴社の Observability スタックへ AI を組み込み、障害対応時間短縮・運用コスト削減を実現してください。