NewRelic

New Relic AI機能の全体像と2025‑2026年アップデート完全ガイド

ⓘ本ページはプロモーションが含まれています

お得なお知らせ

スポンサードリンク
1ヶ月で資格+現場入り

インフラエンジニアへの最短ルート

未経験でもAWS・Linux・ネットワーク資格を最短で取り、現場入りまでサポート。SREやクラウドエンジニアの入口。

CODE×CODEスピード転職|無料面談▶ SRE/クラウドのフリーランス案件▶

▶ AWS/GCP/Kubernetesの独学には Kindle Unlimited の技術書読み放題がコスパ最強。


スポンサードリンク

AI アラート作成手順とベストプラクティス(Qiita フロー)

本章では、Qiita に掲載された実装ガイドをベースに AI アラート を効果的に設定するための 4 ステップと、運用上のベストプラクティスを具体例とともに紹介します。

参考文献:しおっち (2025‑12) 「New Relicで実現する実践的オブザーバビリティ」Qiita, https://qiita.com/shioccii/items/165c4231dbbfe7850d0c

手順 1 対象サービス・データソースの選定

まずは、監視対象とする APM、Infrastructure、Log Management のうち、インシデント頻度が最も高い領域を優先します。AI が十分な学習サンプルを確保できないリソースは誤検知の原因になるためです。

  • ポイント:CPU 使用率とエラーログを組み合わせたアラートで、ノイズ率が 30 % → 8 % に改善(※New Relic ケーススタディ 2025‑12)
  • 実装例:対象サービス order-service の APM と Infrastructure を選択し、タグ env:production を付与。

手順 2 AI アラート条件の定義

  1. New Relic UI の「Alerts & AI」→「Create alert policy」で新規ポリシーを作成。
  2. 「Add condition」→「Applied Intelligence」タブを選択。
  3. 異常スコア閾値 をデフォルトの 0.7 から 0.85 に引き上げ、過去 30 日間のベースライン自動チューニングを有効化。

効果:閾値調整により偽陽性率が約 5 % 未満に低減(※内部ベンチマーク 2026‑02)。

手順 3 ノイズ除去とサンプリング率の調整

AI のスコア計算負荷を抑えるため、ログのサンプリング率も併せて設定します。

  • 推奨:大量ログは 5 %〜20 % にサンプルダウン。
  • 実例:サンプリング率を 20 % → 5 % に変更した結果、AI 処理時間が 45 秒 → 12 秒 に短縮(※New Relic 内部測定 2026‑01)。

手順 4 テスト実行とアラート受信の確認

「Run simulation」ボタンで過去データに対してシミュレーションを実施し、偽陽性が 5 % 未満 かつ検知漏れが無いことを確認したらポリシーを有効化します。


ベストプラクティスまとめ

項目 推奨設定
異常スコア閾値 0.80〜0.90(データ安定度に応じて調整)
サンプリング率 5 %〜20 %(ログ量が多いほど低め)
ポリシー名例 AI-APM-ResponseTime
通知チャネル Slack + PagerDuty の二重通知

結論:Qiita が提示するフローに沿って段階的に閾値・サンプリング率を調整すれば、AI アラートの誤検知は 70 % 以上削減 可能です(※実装ガイド測定結果)。


エラーメッセージ自動解説・原因推論・構成変更提案

ThinkIT に掲載されたインタビュー記事では、New Relic AI がエラーログを自然言語で要約し、根本原因と具体的な対策まで提示する事例が紹介されています。

参考文献:田中健太郎 (2026‑03) 「AI がエラーメッセージを自動解説 ― New Relic の実践事例」ThinkIT, https://thinkit.co.jp/article/38201

シナリオ 1 エラーログの自動解説

入力ログ java.lang.OutOfMemoryError: Java heap space
AI 出力 メモリ不足が原因で JVM が停止。過去 5 分間のヒープ使用率は 95 % 超え、GC が追いついていない。
推奨対策:ヒープサイズを +512 MB 増加、または -XX:+UseG1GC を有効化。

シナリオ 2 根本原因の推論

前提条件 CPU スパイクと同時に上記エラーが発生
AI 分析結果 - 因子 A:外部 API タイムアウト増加(+120 %)
- 因子 B:スレッドプール上限超過(70 %)
結論:外部依存サービス遅延がスレッド待機を招き、CPU スパイクと OOM が同時に発生。

シナリオ 3 構成変更提案(One‑Click 修正)

AI は「スレッドプール上限を 200 → 300 に拡張」する YAML 設定例を生成し、New Relic UI の Apply ボタンで即時デプロイ可能にします。

効果測定:エラーメッセージ自動解説と原因推論により障害対応時間が 30 % 以上削減(※内部実証 2026‑04)。


APM・Infrastructure・Log Management・Synthetic の連携設定

本章では、4 つのプロダクトを横断的に統合し、AI アラートで活用できるようにする手順を解説します。各ステップは「導入前提」「操作概要」「ポイント」の3部構成です。

手順 1 データソースの登録

  • 操作:UI の「Data Sources」→「Add source」で APM、Infrastructure、Log Management、Synthetic を個別に追加。
  • ポイント:サービス名や環境を示すタグ(例 env:production, team:backend)を必ず付与し、横断検索を容易にする。

手順 2 共通属性のマッピング

  • 「Attributes」画面で service.namehost.id をキーに マッピングルール を作成。
  • これにより、同一サービスのメトリクス・ログが自動的に結合され、AI が全体像を把握しやすくなる。

手順 3 AI アラートポリシーへの統合

  1. 「Alerts & AI」→「Create alert policy」
  2. 「Add condition」で 複数データソース を同時選択(例:APM のレスポンスタイム + Infrastructure の CPU スパイク)。
  3. 条件式の例:apm.response_time > 2s && infra.cpu_percent > 80

ベストプラクティス:条件はシンプルに保ち、過剰な組み合わせはノイズ増加の原因となる(※New Relic 推奨ガイドライン 2025‑11)。

手順 4 ダッシュボードへの可視化

  • 「Dashboards」→「Create dashboard」で AI アラート結果ウィジェット を追加し、スコア・推奨対策をカード表示。
  • チーム全体がリアルタイムで異常と対応策を把握できる。

手順 5 統合アラートのテスト

  • 「Run simulation」機能で過去 7 日間のデータにシナリオ実行。結果は Slack に送信し、通知フローが正しく機能するか確認。
プロダクト 主なメトリクス例 AI アラート活用ポイント
APM response_time, error_rate サービス単位で異常スコア算出
Infrastructure cpu.percent, mem.used_percent ホストレベルのリソース逼迫を補完
Log Management error.log, latency.log テキスト解析による根因推論
Synthetic availability, step_duration エンドツーエンド SLA 監視に組み込み

結論:共通属性で横断的にデータを紐付け、AI アラートポリシーで統合条件を設定すれば、単一障害の全容が即座に把握できるようになります(※実装事例 2026‑03)。


Service Levels と Pipeline Control によるコスト最適化

SLO とパイプライン制御は、アラート頻度を抑えつつリソース使用率を最適化する重要な仕組みです。Qiita の実装ガイドでも同様に推奨されています。

参考文献:しおっち (2025‑12) 同上

手順 1 SLO の定義

  • 例)Web API の可用性を 99.9 % に設定。
  • 「Service Levels」画面で availability > 99.9 を目標値として登録。

手順 2 Pipeline Control の適用

  1. 「Alerts & AI」→「Policy Settings」で “Throttle when SLO breaches” を有効化。
  2. 設定項目
  3. Burst limit:同時アラート上限 5 件
  4. Recovery period:SLO が回復した後の静止時間 10 分

手順 3 コスト指標の測定

指標 計算式 期待効果(実績)
アラート数削減率 (前月アラート数 - 現月アラート数) / 前月アラート数 ×100 35 % 削減(※ServerWorks ケース 2026‑02)
MTTR 改善率 前月MTTR - 現月MTTR 12 分 → 7 分 の短縮
インフラコスト削減額 CPU 使用時間 × 単価 の変化 月間 ¥120,000 削減

出典:ServerWorks エンジニアブログ(2026‑04)「New Relic AI 導入効果」https://blog.serverworks.co.jp/new-relic-practical-isagoge


活用事例と本番導入までのステップ

ServerWorks の実績

ServerWorks は 2025 年末に New Relic AI を全サービスへ展開し、以下の KPI 改善を報告しています(※公式ブログ参照)。

項目 導入前 導入後
平均復旧時間 (MTTR) 18 分 10 分 (45 % 短縮)
エラー検知率 92 % 98 %
アラート件数(月) 240 件 155 件
インフラコスト削減額 ¥150,000 / 月

出典:ServerWorks ブログ(2026‑04)「New Relic AI の効果測定」https://blog.serverworks.co.jp/new-relic-practical-isagoge

本番導入までのロードマップ

  1. 無料トライアル登録(30 日間、全機能制限なし)。
  2. PoC 環境で AI アラートを 2 件設定:APM のレスポンスタイムと Infrastructure の CPU スパイク。
  3. 評価指標の測定:上表の KPI を 1 カ月間取得し、目標達成度(例:MTTR 減少 > 30 %)を判定。
  4. 全サービスへ拡張:PoC 成功アラートポリシーをテンプレート化し、Service Catalog に組み込む。
  5. 運用フローへの統合:インシデント対応手順書に「AI 推奨対策の確認」ステップを追加し、SRE が毎日レビュー。

注意点

  • データ保持期間:無料トライアルは 90 日分まで保存可能。長期分析が必要な場合は有償プランへ移行してください(公式ドキュメント参照)。
  • 権限管理:AI 設定は admin 権限を持つユーザーのみ変更可とし、RBAC を徹底。
  • プライバシー:ログやコードスニペットの自動解析は暗号化された内部ストレージで処理され、外部へ送信されません(New Relic セキュリティガイド 2025‑10)。

結論:ServerWorks の事例は、AI アラートがインシデント検知と復旧に具体的な効果をもたらすことを示しています。まずは無料トライアルで PoC を実施し、KPI に基づく評価を行うことでリスクを最小化しつつオブザーバビリティの成熟度を高めることが可能です。


まとめ

  • 2026 年版 New Relic AI はマルチデータソース統合・ノイズ除去強化・One‑Click 修正といった機能で「検知」→「診断」→「修復」のフローを一本化。
  • AI アラート作成手順(Qiita フロー)に従い、閾値・サンプリング率を段階的に調整すれば誤検知を大幅削減できる。
  • エラーメッセージ自動解説は根因推論と構成変更提案まで行い、障害対応時間を 30 % 超削減。
  • APM・Infrastructure・Log Management・Synthetic の横断連携により、単一障害の全容が即座に把握可能。
  • SLO と Pipeline Controlでアラート過剰発火を抑制し、コスト削減と MTTR 改善を実現。
  • ServerWorks 事例は実際の KPI 改善効果を示す具体的な証拠となり、本番導入へのロードマップが明確になる。

これらを踏まえて、まずは 無料トライアルで PoC を行い、KPI に基づく評価 を実施してください。AI が支援するオブザーバビリティは、現代のクラウドネイティブ環境における信頼性向上の鍵となります。

スポンサードリンク

お得なお知らせ

スポンサードリンク
1ヶ月で資格+現場入り

インフラエンジニアへの最短ルート

未経験でもAWS・Linux・ネットワーク資格を最短で取り、現場入りまでサポート。SREやクラウドエンジニアの入口。

CODE×CODEスピード転職|無料面談▶ SRE/クラウドのフリーランス案件▶

▶ AWS/GCP/Kubernetesの独学には Kindle Unlimited の技術書読み放題がコスパ最強。


-NewRelic