Contents
1. Azure AI Studio(Microsoft Foundry)とは
Azure AI Studio は Microsoft Foundry と呼ばれる統合開発プラットフォームの正式名称です。企業が生成 AI を活用したエージェントやアプリをコード不要で設計・テスト・デプロイできるように、Prompt Flow、Agent Service、Copilot Studio など複数のコンポーネントを一元管理します。本節では 2026 年に一般提供(GA)された Agent Service の概要と、同時リリースされた Copilot Studio との役割差について解説します。
1.1 Agent Service(GA 状態)
Agent Service はマルチステップのツールチェーンをプロンプトだけで組み立てられるエージェント実行基盤です。2026 年 4 月に GA が完了し、商用利用が正式にサポートされました。
- 主要機能
- Prompt Flow と統合されたビジュアルデザイナーでフローを YAML に自動変換
- 外部 API・データベース・カスタムツールとのシームレス連携(REST、Azure Function、SQL 等)
-
バージョン管理と A/B テスト機能がポータル上で完結
-
利用イメージ
たとえば「顧客問い合わせ → データベース検索 → PDF 報告書生成」の3段階フローは、数行の YAML 記述だけで実装可能です。実行時にトークン消費量が自動集計され、Azure Monitor にリアルタイムで可視化されます。
1.2 Copilot Studio と Agent Service の違い
Copilot Studio は開発者向けのコード補完・ペアプログラミング支援ツールです。一方、Agent Service はエンドユーザーが対話的に利用する AI エージェントを構築することに特化しています。
- 対象ユーザー
- Copilot Studio:ソフトウェア開発者・データサイエンティスト
-
Agent Service:プロダクトマネージャー、業務担当者、ノーコード志向のチーム
-
機能範囲
- Copilot Studio は IDE(VS Code 等)にプラグインとして組み込み、コード生成・レビューを支援します。
- Agent Service はプロンプトとツールチェーン全体を管理し、デプロイからスケーリングまでを一括で行います。
2. 料金シミュレーションと無料クレジットの活用法
Azure AI Studio の費用は プラン種別 と 実際に使用したトークン数/同時実行インスタンス数 に基づき課金されます。以下では公式情報を元に代表的な 3 種類のプランを概観し、$200 の無料クレジットでどこまで試せるかをシミュレーションします。
2.1 プラン概要(2026 年 5 月時点)
| プラン | 月額 (USD) | 主なリソース上限 | 想定ユースケース |
|---|---|---|---|
| Standard | 約 $199 | Prompt Flow 実行 10 M トークン、Agent Service 同時実行 5 インスタンス | PoC・小規模チーム |
| Professional | 約 $799 | Prompt Flow 50 M トークン、Agent Service 同時実行 20 インスタンス + 優先サポート | 部門横断プロジェクト |
| Enterprise | カスタム見積もり | 無制限トークン・インスタンス、専任テクニカルマネージャー | 大規模全社導入 |
※料金は Azure Pricing Calculator の「2026‑05」バージョンを参照しています。実際の請求額はリージョンや為替レートにより変動します。
2.2 $200 無料クレジットで試すシナリオ
1️⃣ アカウント作成 – Azure ポータルで「無料アカウント」を選択すると自動的に $200 クレジットが付与されます。
2️⃣ リソース構築 – 以下の構成を例に、クレジット消費を概算します。
| サービス | 想定月額 (USD) | 無料クレジット適用後残高 |
|---|---|---|
| Azure AI Studio(Standard) | $199 | $1 以内で収まる |
| Azure OpenAI Service(gpt‑4o、4,000 トークン分) | 約 $30 | 超過分は別途課金 |
ポイント:Standard プランと軽量モデルだけでも $200 で 1 ヶ月間の検証が可能です。実運用に入る段階で Professional 以上へのアップグレードを検討してください。
3. AI エージェント開発フロー(AI‑3026‑A コースベース)
Microsoft が提供する AI‑3026‑A は、Azure AI Studio を用いたエージェント作成の標準カリキュラムです。本節では設計・データ準備・デプロイという実務サイクルを具体的に示します。
3.1 設計フェーズのポイント
設計段階で 要件定義 と 外部ツール選定 を明確化すると、後続の Prompt Flow 作成がスムーズになります。
- ユースケースを「入力 → 処理ステップ① → ステップ② …」というフロー図に落とし込む
- 必要な API・データベース・カスタムツールを一覧化し、認証方式やレートリミットも併記
3.2 データ準備と Prompt Flow 設定
高品質データはモデル出力の安定性に直結します。Azure Blob や Cosmos DB に格納した CSV/JSON を data: セクションで宣言し、Few‑Shot プロンプトや Chain‑of‑Thought のテンプレートを YAML に組み込みます。
ベストプラクティス
- temperature は 0.1〜0.3 に抑えて一貫性を確保
- ステップごとに output_mapping を設定し、デバッグ時に実行ログで確認できるようにする
- トークン上限 (max_tokens) とコスト見積もりは Azure Cost Management で事前シミュレーション
3.3 デプロイ・バージョン管理
Portal の「Deploy」ボタン一つでエージェントがコンテナ化され、AKS 上で自動スケーリングが有効になります。デプロイ後は Version タブでリビジョンを管理し、必要に応じてロールバックや A/B テストが実施可能です。
- 同時実行インスタンス数はプラン上限とトラフィック予測に合わせて設定
- Azure Monitor のアラートで CPU・メモリ使用率が閾値を超えたら自動スケールアウトするルールを追加
4. ポータルでのリソース構築とコードサンプル
実際に手を動かすことで理解が深まります。以下では Azure Portal の操作手順と、Prompt Flow の YAML・Python SDK・REST API の基本例を示します。
4.1 リソース作成手順(概要)
- ポータルにサインインし「リソースの作成」→「AI + Machine Learning」から Azure AI Studio (Microsoft Foundry) を選択。
- 推奨リージョンは East US 2、プランは Standard か Professional を選ぶ。
- 同様に Azure OpenAI Service を作成し、モデルとして
gpt‑4o(必要ならdall‑e‑3)を追加。 - 作成したリソースの「アクセスキー」・「エンドポイント URL」をメモして、以降のコードで使用する。
ポイント:プロジェクトごとにリソースグループを分けると、コスト管理と RBAC 設定が一元化できます。
4.2 Prompt Flow YAML(顧客問い合わせエージェント)
|
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 |
# prompt_flow.yaml name: customer_query_agent description: FAQ と社内 DB を組み合わせて顧客質問に自動回答するエージェント data: - name: faq_dataset type: azure_blob uri: https://<storage>.blob.core.windows.net/faqs/faq.csv steps: # 1. FAQ から類似回答を取得 - name: retrieve_faq type: prompt model: gpt-4o temperature: 0.1 max_tokens: 512 prompt: | 以下の FAQ データからユーザー質問に最も近い回答を抽出してください。 質問: {{ user_input }} FAQ: {{ faq_dataset | table }} # 2. 社内 DB を検索 - name: query_db type: tool tool_name: sql_query input: | SELECT answer FROM support_knowledge WHERE MATCH(question, '{{ user_input }}') output_mapping: result: db_answer # 3. 最終回答を合成 - name: synthesize_reply type: prompt model: gpt-4o temperature: 0.2 max_tokens: 256 prompt: | ユーザー質問: {{ user_input }} FAQ 回答: {{ retrieve_faq.output }} DB 回答: {{ query_db.db_answer }} 上記情報を統合し、簡潔で礼儀正しい日本語の回答を作成してください。 |
補足ポイント
temperatureを低く設定すると出力が安定し、業務系チャットに適しています。output_mappingにより各ステップの結果名が明示され、Portal の実行ログで容易に追跡できます。
4.3 Python SDK(azure‑ai‑generative)
|
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 |
from azure.identity import DefaultAzureCredential from azure.ai.generative import AzureAIStudioClient credential = DefaultAzureCredential() endpoint = "https://<your-studio>.cognitiveservices.azure.com/" client = AzureAIStudioClient(endpoint=endpoint, credential=credential) # Prompt Flow のロード with open("prompt_flow.yaml", "r") as f: flow_yaml = f.read() run = client.prompt_flows.run( flow_definition=flow_yaml, inputs={"user_input": "最新の在庫状況を教えて"} ) print(run.output["synthesize_reply"]) |
- ポイント:
DefaultAzureCredentialはローカル開発から CI/CD 環境まで同一コードで認証でき、社内 AD とシームレスに連携します。
4.4 REST API(cURL)
|
1 2 3 4 5 6 7 8 9 |
curl -X POST "https://<your-studio>.cognitiveservices.azure.com/openai/deployments/gpt-4o/chat/completions?api-version=2023-12-01-preview" \ -H "Authorization: Bearer $(az account get-access-token --resource=https://cognitiveservices.azure.com/ | jq -r .accessToken)" \ -H "Content-Type: application/json" \ -d '{ "messages": [{"role":"user","content":"最新の在庫状況を教えて"}], "temperature":0.2, "max_tokens":256 }' |
- ポイント:REST API はスクリプトや CI パイプラインから直接呼び出せるため、デプロイ自動化に有効です。
5. セキュリティ・ガバナンス/運用モニタリング
AI エージェントは外部システムと連携するため、認証・コンテンツ安全性・コスト監視を包括的に設計する必要があります。
5.1 Azure AD による RBAC 設定
すべてのリソースは Azure AD のロールベースアクセス制御で保護します。推奨ロール例:
| ロール | 主な権限 |
|---|---|
| AI Studio Contributor | Prompt Flow 作成・デプロイ |
| OpenAI Reader | モデル呼び出しのみ(変更不可) |
| Monitoring Reader | Azure Monitor のメトリクス閲覧 |
再確認:ロールは「最小権限の原則」に従い、開発チームと運用チームで分離してください。
5.2 コンテンツフィルタリングとデータ保持ポリシー
- Content Safety 機能を有効化すると、Harassment・Violence・Self‑harm などのカテゴリが自動的にブロックされます。
- PII(個人情報)検出は Azure Policy のカスタム定義で全リクエストに対し必須化できます。
- データ保持期間は組織のコンプライアンス要件に合わせ、Azure Policy で
LogAnalyticsの保存日数を制御します。
5.3 Azure Monitor と Cost Management の活用法
| メトリクス | 用途 |
|---|---|
| PromptFlowExecutionCount | フロー実行回数の把握 |
| PromptTokensUsed / CompletionTokensUsed | 課金対象トークン量の可視化 |
| AgentServiceCpuPercentage | スケールアウト判断材料 |
- コストアラート:Cost Management で月次予算 $150(例)を設定し、残高が 20 % 以下になるとメール通知するルールを作成。
- ログ分析:Log Analytics に
PromptFlowRunテーブルをインポートし、KQL クエリで失敗率や遅延のトレンドを抽出します。
6. 導入事例と次のアクション
実際に導入した企業の成果を見ることで、社内提案時の根拠が得られます。ここでは公式サイトで公開されている 10 社のうち代表的な 製造業 A 社 と 小売業 B 社 の成功ポイントを紹介し、実装後に取るべきアクションをまとめます。
6.1 事例① 製造業 A 社
- 課題:ライン稼働状況への問い合わせがヘルプデスクに集中し、生産性が低下。
- 構成:Azure AI Studio (Agent Service) + Azure OpenAI gpt‑4o + Azure SQL Database + Azure Monitor
- 実装ポイント
- Prompt Flow で「ラインステータス取得 → 異常判定 → PDF 報告書生成」の 3 ステップを YAML 化。
- 同時実行インスタンスは 10 に制限し、Standard プラン内に収めた。
- 成果:平均対応時間が 5 分→45 秒へ‑85 %削減。月間トークン使用量 12 M トークンで費用増加なし。
6.2 事例② 小売業 B 社
- 課題:多言語顧客サポートにかかる翻訳コストとオペレーター工数がボトルネック。
- 構成:Azure AI Studio (Agent Service) + Azure OpenAI gpt‑4o + Azure Translator + Blob に格納した FAQ データ
- 実装ポイント
- Prompt Flow に「言語自動検出 → 翻訳ツール呼び出し → 回答生成」ステップを組み込み。
- Professional プランへ移行し、同時実行インスタンス 20 を確保。
- 成果:対応言語を12に拡大し、オペレーター介入率が30 %→5 %に低減。ROI が約3倍。
6.3 次のステップ(チェックリスト)
- 無料クレジット取得 – Azure ポータルで $200 クレジットを有効化。
- ハンズオン実施 – 本稿の YAML と Python SDK を使い、PoC 用エージェントを 1 時間でデプロイ。
- 要件定義シート作成 – ユースケースごとに「入力・処理ステップ・外部ツール」を表形式で整理。
- コスト試算 – Azure Pricing Calculator に実測トークン数を入力し、プラン選択の根拠を文書化。
- セキュリティ設定 – RBAC、Content Safety、PII フィルタリングをポリシーとして適用。
- モニタリング構築 – Azure Monitor のダッシュボードと Cost Management アラートを作成。
- 本番デプロイ計画 – バージョン管理方針、ロールバック手順、スケールアウトルールを策定し、ステークホルダーに承認を得る。
まとめ
Azure AI Studio(Microsoft Foundry)は、Prompt Flow と Agent Service によってノーコードで高度なエージェント開発が可能になるプラットフォームです。2026 年に GA が完了した Agent Service は商用利用のハードルを下げ、Copilot Studio とは明確に役割分担されたツール群として位置付けられます。
- 費用はプランと実際のトークン使用量で決まるため、無料クレジットでの検証と Azure Cost Management による継続的監視が必須です。
- 開発フローは設計→データ準備→Prompt Flow 作成→デプロイ・バージョン管理というシンプルなサイクルで、AI‑3026‑A の教材と合わせて学習するとスムーズに進められます。
- セキュリティは Azure AD の RBAC、Content Safety、PII ポリシーを組み合わせることで企業レベルのガバナンスが実現します。
上記手順とチェックリストを参考に、まずは $200 無料クレジットで PoC を走らせ、具体的なトークン消費量とスケール要件を測定しましょう。その結果を基に適切なプランへ移行すれば、コスト最適化と高速イノベーションの両立が可能です。