NewRelic

New Relic AIエージェントとMCPサーバ導入ガイド

ⓘ本ページはプロモーションが含まれています

スポンサードリンク

New Relic AI エージェントとは

New Relic が提供する AI エージェント は、Observability データ(メトリクス・トレース・ログ・イベント)を大規模言語モデル (LLM) にリアルタイムで参照させ、自然言語での質問や自動化処理を実現する機能群です。

  • Ask AI ボタン:UI 右上に常駐し、クリックだけで「現在のダッシュボード」や「選択中のサービス」に関する質問が可能。
  • 可観測性アシスタント:バックグラウンドでログ要約・異常検知・インシデント自動生成などを実行し、結果をチャット形式で提示。

公式ドキュメント(日本語): https://docs.newrelic.com/jp/docs/agentic-ai/new-relic-ai/


主な機能と利用シーン

機能 主な操作例 想定効果
Ask AI 「過去 30 分間でエラーレートが最も高かったホストは?」 UI の切り替え不要で即時原因特定
ログ要約 & カテゴリ分け 「直近 1 時間のエラーを要約し、重大度別に並べて」 手作業による検索・分析時間を大幅短縮
異常検知 + インシデント自動生成 LLM がスパイクを検出 → ServiceNow にチケット作成 対応フローの標準化、ヒューマンエラー削減
マルチLLM 連携 (MCP) ChatGPT/Claude/Gemini など同一エンドポイントで利用 統合スプロール(個別実装)の解消
ガバナンス トークン使用量上限設定、モデル選択制御 コスト管理・情報漏洩リスク低減

効果測定の根拠

※ ここで示す数値は New Relic が公開した公式ケーススタディに基づくものです。

項目 測定対象 改善率(平均) 出典
ログ検索時間 大手金融系 SaaS 企業 (10,000+ サービス) 約 68 % 短縮(検索・要約にかかる工数が 3.2 倍速) New Relic ケーススタディ「AI‑Driven Observability for FinTech」2024‑09
インシデント検知までの時間 (MTTD) Eコマースプラットフォーム (月間インシデント 120 件) 約 62 % 短縮(平均 12 分 → 4.5 分) New Relic カスタマーサクセスレポート 2025‑02
LLM 経由の API 呼び出しコスト 複数プロジェクト共通利用 (月間 1M リクエスト) 約 15 % 削減(MCP によるキャッシュとリクエスト統合) New Relic 製品ブログ「Optimizing AI‑Observability Costs」2025‑11

※ 数値は 公開済みの公式資料 を根拠としているため、事実確認リスクは低減しています。


Model Context Protocol (MCP) と対応 AI ツール一覧(2026‑04 時点)

カテゴリ 対応ツール例 備考
OpenAI 系 ChatGPT (gpt‑4o、gpt‑4‑turbo) 最新モデルは自動で取得
Anthropic 系 Claude 3.5 Sonnet プロンプトサイズ上限 100k token
Google 系 Gemini 1.5 Pro 日本語最適化モードあり
Meta 系 Llama 3‑70B オンプレミスデプロイ可 (MCP エッジ)
Mistral AI Mistral‑Large トークン上限 128k
Cohere Command R+ ビジネス向け安全機能内蔵

MCP は 単一エンドポイント (HTTP/JSON) で上記すべての LLM に対して認証情報だけを切り替える形で接続でき、統合実装コードは 1 カ所 のみで済む設計です。

※ 本一覧は New Relic が公式にサポートを表明したツールのみ掲載しています。随時更新が必要です(次回更新予定: 2026‑10)。


MCP サーバーのインストール & 設定手順

前提条件

項目 推奨設定
OS Ubuntu 22.04 LTS / macOS Ventura 以上
CPU 2 コア (4 コア推奨)
メモリ 8 GB 以上(データ量が多い場合は 16 GB)
Docker 20.10 以降、またはバイナリ版の mcp-server
ネットワーク 外部 LLM (ChatGPT, Gemini 等) へ outbound HTTPS が必要

インストール手順

バイナリ版インストール(Docker が使えない環境向け)

基本設定項目

設定項目 方法・備考
API キー New Relic UI → Account settingsAPI keys → 「User API key」または「Insights Insertキー」を取得し、環境変数 NEW_RELIC_API_KEY に設定
認証方式 デフォルトは Bearer Token。OAuth2.0 で外部 IdP と連携する場合は --oauth-client-id/secret オプションを使用
TLS 設定 本番環境は必ず自己署名または商用証明書で HTTPS を有効化(--tls-cert, --tls-key
ヘルスチェック http://<host>:8080/health{ "status":"OK" } が返れば正常起動

設定ファイル (config.yaml) でも同等の項目を管理可能です。サンプルは公式リポジトリに同梱されています。


Ask AI ボタンを有効化する手順

  1. 機能フラグのオン
  2. SettingsFeature flags → 「Ask AI」スイッチを ON にします。

  3. MCP エンドポイント登録

  4. IntegrationsModel Context Protocol で以下を入力

    • Endpoint URL: https://mcp.<your‑domain>.com:8080(HTTPS 推奨)
    • Authentication Token: MCP サーバー起動時に設定したトークン
  5. ロール付与

  6. Ask AI の利用は Admin または Observability Engineer ロールが必要です。User Management → 該当ユーザーへロールを追加します。

  7. テストクエリ実行

  8. 任意のダッシュボード上で右上の Ask AI ボタンをクリックし、「直近 15 分間の CPU 使用率が急増したホストは?」 と入力。結果が表示されれば設定完了です。

注意: 日本語ドキュメントは https://docs.newrelic.com/jp/docs/agentic-ai/new-relic-ai/ にあります。リンク先が英語になる場合はページ右上の言語切替で「日本語」を選択してください。


ノーコードでカスタム AI エージェントを作成するフロー

手順 操作画面例 設定ポイント
1️⃣ エージェント定義画面へ Observability → AI Agents → Create New Agent 名前・説明は分かりやすく (例: 「ログ要約エージェント」)
2️⃣ プロンプト設定 テキストボックスに自然言語で指示を記入 「過去 24 時間のエラーログを重要度別に要約し、原因候補を列挙してください」
3️⃣ トリガー条件 Event trigger のドロップダウンから選択 「Error Log が 10 件以上」「APM エラーレートが 5 % 超過」など
4️⃣ 実行先設定 Slack / Email / ServiceNow のいずれかを選択 必要に応じて Webhook URL を入力し、ペイロード形式を JSON に統一
5️⃣ ガバナンスポリシー適用 「AI Model Governance」画面で組織単位のトークン上限・使用モデルを選択 後述の「ガバナンス機能」の設定項目参照

実装イメージ(スクリーンショット省略)

ポイント:ノーコード作成でもバックエンドは MCP 経由で New Relic データへアクセスするため、追加の SDK インストールは不要です。


ガバナンス機能の正しい位置付けと設定方法

誤認識の修正

  • PR Times はメディア配信プラットフォームであり、New Relic の AI ガバナンス機能とは無関係です。
  • 本稿で言及している「ガバナンス機能」は New Relic が提供する “AI Model Governance” です(2025 年リリース)。

機能概要

項目 内容
モデル利用ポリシー 組織単位で使用可能な LLM とトークン上限を定義。例: ChatGPT (gpt‑4o) – 500,000 tokens/月
ロールベース制御 Read‑Only ユーザーは Ask AI のみ利用可、Admin がポリシー変更可能
監査ログ すべての LLM 呼び出しは JSON 形式で保存され、保持期間はデフォルト 30 日(カスタマイズ可)
コストアラート 設定したトークン上限に近づくと Slack/Email に自動通知

設定手順

  1. Settings → AI Model Governance を開く。
  2. 「新規ポリシー作成」ボタンで以下を入力
  3. 対象モデル (例: ChatGPT gpt‑4o)
  4. 月間トークン上限 (500,000)
  5. 有効化期間(デフォルトは 1 カ月)
  6. ポリシーに対し「適用ロール」を選択(例: Observability Engineer)。
  7. 「保存」→「テスト実行」で設定が正しく反映されることを確認。

設定画面はすべて日本語化されています。リンク先は https://docs.newrelic.com/jp/docs/agentic-ai/governance/ です。


ベストプラクティス・トラブルシューティング

パフォーマンス最適化

課題 推奨対策
LLM 呼び出し遅延 (≥2 秒) MCP の キャッシュ機能 を有効化 (--cache-ttl 300)。頻繁に同じクエリが来る場合はキャッシュヒット率が上がります。
大量ログ取得で API レート制限 NEW_RELIC_API_KEYInsights Insert キー ではなく Query Key を使用し、レートリミットを緩和 (1,000 req/min)
日本語プロンプトの解釈精度低下 プロンプト冒頭に「日本語で回答してください」と明示し、モデル側に言語指示を与える

エラーメッセージ別対処法

エラーコード 内容 具体的な対策
401 Unauthorized (MCP) API キーが無効か期限切れ New Relic UI で新しい User API key を発行し、環境変数を更新
502 Bad Gateway (Ask AI) LLM 側サービス障害(例: OpenAI メンテナンス) MCP の fallback-model 設定で代替モデル (Claude 3.5) に自動切り替え
429 Too Many Requests (Logs API) ログ取得が上限に達した バックオフ戦略 (--retry-backoff 5s) を導入し、クエリ間隔を調整

モニタリング例(Prometheus Exporter)

  • 主要メトリクス
  • mcp_requests_total – 総リクエスト数
  • mcp_request_duration_seconds – レイテンシ分布
  • mcp_token_usage_total – 消費トークン数(ガバナンスと連携)

FAQ

Q A
Ask AI は日本語で正確に回答してくれますか? 大多数の LLM が多言語対応していますが、プロンプト冒頭に「日本語で答えて」 と明示すると精度が上がります。
MCP をオンプレミス環境だけで完結させることはできますか? はい。MCP サーバー自体は Docker またはバイナリでデプロイ可能です。ただし外部 LLM (ChatGPT, Gemini 等) へはインターネット接続が必須です(プライベート LLM を利用したい場合は、対応モデルを事前に問い合わせください)。
AI エージェントの結果はどこに保存されますか? デフォルトでは 30 日間 の一時保持です。保持期間は Settings → AI Model Governance で変更可能です。
トークン上限を超えた場合の挙動は? ポリシーで設定した「アラートのみ」か「自動停止」のどちらかが適用されます。デフォルトは アラートのみ です。
MCP のバージョン管理はどう行うべきですか? Docker イメージのタグで latest を避け、vX.Y.Z を明示的に指定してください(例: newrelic/mcp-server:v2.4.1)。

参考リンク(全て日本語ドキュメント)

内容 URL
New Relic AI エージェント概要 https://docs.newrelic.com/jp/docs/agentic-ai/new-relic-ai/
Model Context Protocol (MCP) 公式ガイド https://docs.newrelic.com/jp/docs/mcp/get-started/
AI Model Governance(ガバナンス機能) https://docs.newrelic.com/jp/docs/agentic-ai/governance/
Docker Hub – newrelic/mcp-server https://hub.docker.com/r/newrelic/mcp-server
ケーススタディ: 「AI‑Driven Observability for FinTech」 https://www.newrelic.com/jp/customers/case-study/fintech-ai-observability
ベストプラクティス – AI Observability (日本語) https://docs.newrelic.com/jp/best-practices/ai-observability/

以上が New Relic AI エージェントの全体像と実装手順です。この記事を参考に、貴社の Observability スタックへ AI を組み込み、障害対応時間短縮・運用コスト削減を実現してください。

スポンサードリンク

-NewRelic