クイズの説明
Step 2「モデルデプロイとサービング基盤」の理解度を確認します。API Gateway設計、フォールバック戦略、スケーリング設計、セキュリティについて問います。
合格ライン: 80%(5問中4問正解)
問題
Q1. API Gatewayの設計
LLMサービスにAPI Gatewayを導入する最も重要な目的はどれですか?
- A. APIの応答速度を向上させるため
- B. 全LLM呼び出しを集約し、ログ・コスト・フォールバックを統合管理するため
- C. 各サービスの開発言語を統一するため
- D. LLMモデルの学習を効率化するため
答えを見る
正解: B
API Gatewayの最も重要な目的は、分散しているLLM呼び出しを一箇所に集約し、統合的なログ収集、コスト管理、フォールバック制御、レート制限を実現することです。各サービスが個別にAPIを呼ぶ構成では、ログの集約もコスト把握もフォールバックもできません。応答速度の向上(A)はAPI Gatewayの主目的ではなく(むしろ僅かなオーバーヘッドが加わる)、開発言語の統一(C)やモデル学習(D)とも無関係です。
Q2. フォールバック戦略
サーキットブレーカーが「OPEN」状態のとき、リクエストはどのように処理されますか?
- A. すべてのリクエストがタイムアウトするまで待機する
- B. リクエストをプロバイダに送信せず、フォールバック先に振り向ける
- C. エラーメッセージを返却してリクエストを拒否する
- D. リクエストをキューに入れて、プロバイダが復旧するまで保留する
答えを見る
正解: B
サーキットブレーカーがOPEN状態のとき、障害が発生しているプロバイダへのリクエスト送信を遮断し、フォールバック先(別プロバイダや軽量モデル)に振り向けます。これにより、障害中のプロバイダへの無駄な呼び出しを避け、ユーザーにはフォールバック経由で応答を返します。タイムアウト待ち(A)はリソースの浪費であり、エラー返却のみ(C)ではサービスが停止します。キュー保留(D)は復旧までユーザーが待つことになり非現実的です。
Q3. スケーリング設計
LLMサービスのスケーリングにおいて、従来のREST APIと比較して特に注意が必要な点はどれですか?
- A. リクエストのペイロードサイズが大きいため、帯域幅の拡張が必要
- B. 応答時間が数秒〜数十秒と長いため、同時接続数が増大しやすい
- C. CRUDオペレーションが多いため、データベースの書き込みスループットが重要
- D. 静的コンテンツの配信が多いため、CDNの活用が効果的
答えを見る
正解: B
LLM APIの応答時間は数秒〜数十秒と、従来のREST API(数十ms〜数百ms)と比べて桁違いに長いです。このため、同じリクエスト数でも同時接続数(concurrent connections)が大幅に増加します。さらにストリーミング(SSE)を使用する場合、接続が長時間維持されるため、ALBのタイムアウト設定やサーバーの接続プール管理が重要になります。帯域幅(A)は通常問題にならず、CRUDオペレーション(C)やCDN(D)はLLMサービスの主要な課題ではありません。
Q4. セキュリティ
CS-AIの顧客対応ログにPII(個人識別情報)が含まれる場合、最も適切なセキュリティ対策の組み合わせはどれですか?
- A. ログ収集を完全に停止してPIIリスクを排除する
- B. 入力時のPII検出・マスキング、マスキング済みログの保管、出力時のPIIフィルタリング
- C. すべてのログを暗号化して外部SaaSに保管する
- D. PIIを含むリクエストを拒否する
答えを見る
正解: B
PII保護は多段階で実施します。入力時にPIIを検出してマスキング(メールアドレス→[MASKED_EMAIL]等)し、マスキング済みのログのみを保管し、出力時にもPIIフィルタを適用します。ログ収集の停止(A)ではモニタリングと改善ができなくなります。暗号化して外部SaaSに保管(C)は暗号化されていてもPIIの外部送信自体がリスクです。PIIを含むリクエストの拒否(D)はCS-AIでは現実的ではありません(顧客は自然に個人情報を含む問い合わせをします)。
Q5. 総合判断
本番環境のAI API Gatewayで、以下の状況が同時に発生しています。最も適切な対応順序はどれですか?
- OpenAI APIのエラー率が60%に達している
- CS-AIのレスポンスタイムがP95で15秒(目標5秒)を超えている
- 今月のAPIコストが予算の90%に到達している
- A. コスト対策 → エラー率対策 → レスポンスタイム対策
- B. エラー率対策(サーキットブレーカー発動でフォールバック切替)→ レスポンスタイム改善を確認 → コスト分析
- C. レスポンスタイム対策 → コスト対策 → エラー率対策
- D. 3つの問題を並行で個別に対応する
答えを見る
正解: B
この3つの問題は連鎖している可能性が高いです。OpenAI APIのエラー率60%(問題1)が原因で、リトライが多発しレスポンスタイムが悪化(問題2)し、リトライによるトークン消費がコスト増加(問題3)を引き起こしている可能性があります。まずサーキットブレーカーを発動させてOpenAIへの呼び出しを遮断し、フォールバック先(Anthropic等)に切り替えます。これによりエラー率が改善されれば、リトライが減少しレスポンスタイムとコストも改善されるはずです。根本原因を特定せずに個別対応(D)するのは非効率です。
結果
合格(4問以上正解)
Step 2の内容をよく理解しています。API Gateway、フォールバック、スケーリング、セキュリティの設計力を身につけました。次のStep 3「モニタリングと可観測性」に進みましょう。
不合格(3問以下正解)
Step 2の内容を復習しましょう。特に以下のポイントを重点的に確認してください:
- API Gateway — LLM呼び出しの集約と統合管理
- サーキットブレーカー — 状態遷移とフォールバックの連動
- スケーリング — LLMの長い応答時間が及ぼす影響
- セキュリティ — PII保護の多段階アプローチ
推定所要時間: 30分