クイズの説明
Month 5「AI安全性とガバナンスを設計しよう」の全範囲から出題される卒業クイズです。
- 全10問
- 合格ライン: 80%(8問正解)
- 不合格の場合は該当Stepを復習してから再挑戦してください
問題
Q1. プロンプトインジェクション攻撃の対策として最も効果的なアプローチはどれですか?
- A) システムプロンプトを長くする
- B) 入力バリデーション、出力フィルタリング、権限分離を組み合わせた多層防御
- C) AIモデルのパラメータ数を増やす
- D) ユーザー入力を暗号化する
答えを見る
正解: B
プロンプトインジェクションに対しては単一の対策では不十分です。入力段階でのバリデーション(危険なパターンの検知)、出力段階でのフィルタリング(不適切な出力の遮断)、権限分離(AIに最小限の権限のみ付与)を組み合わせた多層防御が最も効果的です。
Q2. ハルシネーション(幻覚)を低減する手法として最も適切なものはどれですか?
- A) モデルのtemperatureを最大に設定する
- B) RAG(検索拡張生成)で外部知識ベースから根拠を提供する
- C) プロンプトを短くする
- D) 出力トークン数を制限しない
答えを見る
正解: B
RAGは外部の信頼できる知識ベースから関連情報を検索し、それをコンテキストとしてLLMに提供する手法です。モデルが「知らないことを推測する」代わりに「根拠に基づいて回答する」ようになるため、ハルシネーションを大幅に低減できます。
Q3. Guardrailsフレームワークにおいて「トピックスコーピング」の目的は何ですか?
- A) AIの応答速度を制限する
- B) AIが対応する話題の範囲を明確に定義し、範囲外の質問を適切に拒否する
- C) AIのメモリ使用量を制限する
- D) 特定のユーザーのアクセスを制限する
答えを見る
正解: B
トピックスコーピングは、AIチャットボット等が対応すべき話題の範囲を明確に定義する手法です。例えばEC企業のチャットボットが政治的な質問や医療相談に回答しないよう、対応範囲を「商品に関する問い合わせ」に限定し、範囲外の質問は丁寧に断る設計を行います。
Q4. AIバイアスの「4/5ルール」で不合格となった場合、最初に実施すべきことは何ですか?
- A) AIシステムを即座に廃止する
- B) 4/5ルールの閾値を引き下げる
- C) 根本原因を分析し、データ・モデル・出力のどの段階でバイアスが生じているかを特定する
- D) 保護属性のデータを全て削除する
答えを見る
正解: C
4/5ルール不合格は問題の存在を示す指標であり、即座の廃止や閾値変更は適切な対応ではありません。まずデータ段階(代表性の偏り)、モデル段階(学習アルゴリズムの問題)、出力段階(後処理の不備)のどこでバイアスが発生しているかを特定し、適切な緩和手法を選択します。
Q5. AIガバナンスの3層構造で、最上位の「原則・方針」層の役割は何ですか?
- A) 具体的な技術実装の仕様を定める
- B) AI利用の「Why(なぜ)」を定義し、倫理原則やリスク許容度を設定する
- C) 監視ダッシュボードの設計を行う
- D) 個別のインシデント対応手順を定める
答えを見る
正解: B
3層構造の最上位「原則・方針(Why)」層は、組織としてAIをなぜ・どのような価値観で利用するかを定義します。AI倫理原則、AI利用方針、リスク許容度の定義が含まれ、下位層(プロセス・基準、実装・ツール)の全ての判断の基盤となります。
Q6. AI利用ポリシーのデータ取扱い規定で、「個人情報」を外部AIサービスに送信することが禁止される最大の理由は何ですか?
- A) 処理速度が低下するため
- B) 外部AIの精度が低いため
- C) データがモデル学習に使用される可能性があり、情報漏洩と法規制違反のリスクがあるため
- D) コストが高いため
答えを見る
正解: C
外部AIサービスに個人情報を送信すると、サービス提供者がモデル学習にデータを使用する可能性があり、これは個人情報保護法の第三者提供規制に抵触する恐れがあります。また、通信経路やサービス側での漏洩リスクもあり、一度送信されたデータの完全削除を保証することは困難です。
Q7. 監査証跡で「ハッシュチェーン」を採用する目的として正しいものはどれですか?
- A) ログデータを圧縮するため
- B) ログの改ざんを検知し、記録の完全性を保証するため
- C) ログの検索速度を向上させるため
- D) ログのバックアップを自動化するため
答えを見る
正解: B
ハッシュチェーンは各ログエントリに前のエントリのハッシュ値を含めることで、途中のエントリが改ざんされると以降のハッシュが全て不整合になる仕組みです。これによりログの完全性を暗号学的に保証でき、改ざんの事実を検知できます。
Q8. EU AI Actで「ハイリスク」に分類されるAIシステムに求められる要件として含まれないものはどれですか?
- A) リスク管理システムの構築
- B) 人的監督の仕組み
- C) AIモデルの全ソースコード公開
- D) 自動ログの記録と保存
答えを見る
正解: C
EU AI Actはハイリスクシステムにリスク管理、データガバナンス、技術文書、ログ記録、透明性、人的監督、精度・堅牢性を要求しますが、ソースコードの公開義務はありません。技術文書はシステムの仕様や性能を記述するものであり、実装コードの開示とは別です。
Q9. AIインシデントの「CRITICAL」深刻度に該当する事例として最も適切なものはどれですか?
- A) AIの応答速度が通常より遅い
- B) 顧客の個人情報がAIの回答に含まれて他の顧客に表示された
- C) AIが商品在庫を1個間違えて表示した
- D) AI生成テキストに軽微な文法誤りがあった
答えを見る
正解: B
個人情報の漏洩は最も深刻なインシデントカテゴリに分類されます。法的責任、顧客の権利侵害、ブランドダメージ、規制当局からの制裁リスクがあり、30分以内の初動対応とCTO・法務への即時エスカレーションが求められます。
Q10. AIガバナンスの成熟度を「Level 1: 場当たり的」から「Level 3: 体系化」に引き上げるために最も重要な施策はどれですか?
- A) 最新のAIモデルを導入する
- B) AI利用ポリシーの策定、リスク評価プロセスの確立、定期監査の実施
- C) AI開発者の採用数を増やす
- D) AIの利用を全面的に禁止する
答えを見る
正解: B
Level 1(場当たり的)では個人判断でAIが導入されている状態です。Level 3(体系化)に引き上げるには、全社統一のAI利用ポリシー策定、新規AI導入時のリスク評価プロセス確立、既存システムの定期監査実施が必要です。これらにより、AI利用が組織的に管理・統制される状態を実現します。
結果
8問以上正解の場合
合格です。Month 5「AI安全性とガバナンスを設計しよう」を修了しました。 AI安全性のリスク管理、Guardrails設計、バイアス対策、ガバナンスフレームワーク策定、組織展開の力が身につきました。 次はMonth 6「本番AIシステムを運用しよう」に進みましょう。
7問以下の場合
もう少し復習しましょう。
| 問題 | 復習セクション |
|---|---|
| Q1 | Step 1: プロンプトインジェクション |
| Q2 | Step 1: ハルシネーションと情報漏洩 |
| Q3 | Step 2: トピック制限とスコープ管理 |
| Q4 | Step 3: バイアスと公平性 |
| Q5 | Step 4: AIガバナンスの全体像 |
| Q6 | Step 4: AI利用ポリシー策定 |
| Q7 | Step 4: 監査証跡 |
| Q8 | Step 4: 規制対応 |
| Q9 | Step 5: インシデント対応体制 |
| Q10 | Step 4: AIガバナンスの全体像 |
推定所要時間: 30分