AWS

AWS Bedrock とプロンプトエンジニアリング入門 – 基礎と実装ガイド

ⓘ本ページはプロモーションが含まれています

お得なお知らせ

スポンサードリンク
1ヶ月で資格+現場入り

インフラエンジニアへの最短ルート

未経験でもAWS・Linux・ネットワーク資格を最短で取り、現場入りまでサポート。SREやクラウドエンジニアの入口。

CODE×CODEスピード転職|無料面談▶ SRE/クラウドのフリーランス案件▶

▶ AWS/GCP/Kubernetesの独学には Kindle Unlimited の技術書読み放題がコスパ最強。


スポンサードリンク

1️⃣ Bedrock の概要とプロンプト設計の重要性

AWS Bedrock は、Anthropic Claude、Amazon Titan、Meta LLaMA など複数の基盤モデル(Foundation Model)へ統一的にアクセスできるマネージドサービスです。
- 統合エンドポイント:同一 API (bedrock-runtime) でモデルを切り替えられるため、コードの差分が最小化されます。
- プロンプトエンジニアリング:LLM が期待通りの出力を生成するかは、入力テキスト(=プロンプト)の設計に大きく依存します。

公式ドキュメント: https://docs.aws.amazon.com/bedrock/latest/userguide/what-is-bedrock.html


2️⃣ 効果的なプロンプト設計の基本原則

原則 内容・ポイント
一貫性 同じタスクでは同様の指示構造を保ち、モデルがパターンを学習しやすくします。
明確さ 曖昧な表現はノイズになりやすいので、具体的かつ限定的に書きます(例:`「売上合計」ではなく「月別売上合計」)。
簡潔さ 必要以上の情報はトークン消費を増やし、生成コスト・レイテンシが上がります。

2‑1 推論パラメータの役割と調整例

パラメータ 効果 推奨設定例(タスク別)
temperature 出力のランダム性/創造性。0 に近いほど決定的、1 に近いほど多様。 要約:0.2
アイデア創出:0.8
top_p 確率上位 p% のトークンに限定し、多様性と品質のバランスを取ります。 すべてのタスクで 0.9‑1.0 が無難
maxTokens(または max_tokens 生成できる最大トークン数。コスト管理・応答速度に直結します。 要約:150 トークン以内
チャットボット:200 トークン以内

※モデルごとにサポートしているパラメータや上限は異なるため、最新情報は Bedrock Model Parameters を参照してください。


3️⃣ ハンズオン:コンソールでプロンプトを試す

手順概要

  1. サービス選択
    Amazon Bedrock → Prompt Studio に移動。
  2. モデル選択(ドロップダウン)例: Claude‑v2Titan-text-express-v1
  3. プロンプト入力

text
Instruction: 以下の顧客レビューを要約してください。
Context:
「商品Aはデザインが良く、使い勝手も◎。ただし価格がやや高め。」

  1. パラメータ設定(例)
    temperature=0.3, top_p=0.9, maxTokens=120
  2. 実行Run Prompt ボタンで結果タブに生成テキストが表示されます。

注意点

項目 ポイント
入力サイズ Bedrock のモデルは 最大 8,192 トークン(※モデルごとに上限は異なる)までしか受け付けません。公式ページで最新のトークン上限を必ず確認してください。
IAM 権限 bedrock:InvokeModel が最低限必要です。過剰な権限付与は避け、対象モデル ARN のみ許可します(下記例参照)。

4️⃣ Boto3 を使った API 呼び出しサンプル

4‑1 リクエスト作成とエンコード

  • ポイントclient.invoke_modelbodyバイナリ(bytes)を受け取ります。
  • 注意:Boto3 が自動で Base64 エンコードするわけではなく、API が Base64 文字列 を期待します。そのため、必要に応じて手動でエンコードしてください。

4‑2 レスポンス取得とエラーハンドリング

ポイントinvoke_model の戻り値は Base64 エンコードされたバイナリです。必ずデコードしてから JSON を解析してください。


5️⃣ モデル別プロンプトフォーマットと高度テクニック

5‑1 主なモデルの推奨フォーマット

モデル 推奨フォーマット例
Claude (Anthropic) Human: <指示>\nAssistant:(対話形式)
Titan (Amazon) { "prompt": "<指示>", "temperature": 0.2 }(単一テキスト)
LLaMA (Meta) <s>[INST] <指示> [/INST](システム+ユーザーの二段階構造)

各モデルの公式プロンプト仕様は Bedrock Model Prompt Guide に詳述されています。

5‑2 Few‑shot と Chain‑of‑Thought(CoT)の実装例

Few‑shot(Claude 用)

Chain‑of‑Thought(Titan 用)

ポイント:Few‑shot は「入力例+出力例」を数件示すだけでパターン学習を促し、CoT は途中経過を書かせることで論理的正確性が向上します。実装時はトークン消費に注意してください。


6️⃣ テスト・チューニング、セキュリティ、コスト最適化

6‑1 プロンプト評価指標

指標 測定方法
正確性 人手で作成した期待回答と比較(BLEU・ROUGE・Exact Match)
レイテンシ invoke_model の往復時間をミリ秒単位で計測
トークン消費 / コスト 実際に使用された入力+出力トークン数 × 料金表(USD/1M トークン)

評価サンプル

バリエーション BLEU 平均レイテンシ (ms) 1,000 リクエスト当たりの費用 (USD)
基本プロンプト 0.68 210 0.42
Few‑shot 0.78 260 0.48
CoT 0.81 300 0.55

結論:正確性が向上するほどトークン数・レイテンシは増えるため、ビジネス要件に合わせたバランス調整が必須です。

6‑2 最小権限 IAM ポリシー例

  • ポイント
  • bedrock:maxTokens のような IAM 条件キーは現時点では存在しないため、ポリシーでトークン上限を制御することはできません。代わりにアプリケーション側で maxTokens パラメータを適切に設定してください。
  • 不要なモデル ARN を除外すれば、誤った呼び出しや予期せぬコスト発生を防げます。

6‑3 コスト削減のベストプラクティス

  1. maxTokens のタスク最小化:実際に必要なトークン数だけ上限を設定(例: 要約は 150、質問応答は 200)。
  2. モデル選択の見直し:同等品質であれば、料金が低めのモデル(例: Titan‑text‑express)へ切り替える。
  3. キャッシュ活用:頻繁に同じプロンプトを送信するケースは結果を保存し、再利用できるようにする。

7️⃣ まとめ

  • Bedrock はマルチモデル環境へのシームレスなアクセス基盤であり、プロンプト設計が成果の鍵です。
  • 一貫・明確・簡潔 の原則とパラメータ調整(temperature, top_p, maxTokens)を組み合わせて、タスクごとの最適化を図ります。
  • コンソールでも Boto3 でも 正しいエンコード手順最小権限 IAM を守れば、安全かつコスト効率の高い運用が可能です。

詳細な API リファレンスは公式ドキュメント https://docs.aws.amazon.com/bedrock/latest/APIReference/ を参照してください。


本稿は 2026 年 4 月時点の情報に基づき作成しています。AWS のサービス内容や料金は予告なく変更されることがありますので、最新情報をご確認ください。

スポンサードリンク

お得なお知らせ

スポンサードリンク
1ヶ月で資格+現場入り

インフラエンジニアへの最短ルート

未経験でもAWS・Linux・ネットワーク資格を最短で取り、現場入りまでサポート。SREやクラウドエンジニアの入口。

CODE×CODEスピード転職|無料面談▶ SRE/クラウドのフリーランス案件▶

▶ AWS/GCP/Kubernetesの独学には Kindle Unlimited の技術書読み放題がコスパ最強。


-AWS