QUIZ 30分

クイズの説明

Step 2「AI倫理とガバナンスを確立しよう」の理解度を確認します。AI倫理原則、Responsible AI、ガバナンス体制、リスクマネジメントについて問います。

合格ライン: 80%(5問中4問正解)


問題

Q1. AI倫理リスクの分類

社内チャットボットに「採用候補者の履歴書を分析して評価レポートを作成する」機能を追加する計画があります。この機能の倫理リスクレベルとして最も適切なものはどれですか?

  • A. 低リスク — 社内業務の効率化であり、人間への直接影響はない
  • B. 中リスク — 間接的に人間に影響するが、最終判断は人間が行う
  • C. 高リスク — 人間の採用判断に直接影響を与え、バイアスのリスクが高い
  • D. 禁止 — AIによる採用判断はすべて禁止すべき
答えを見る

正解: C

採用候補者の評価は、人間の雇用に直接影響する「高リスク」のAI活用です。EU AI Actでもハイリスクに分類されるカテゴリです。履歴書の分析には、性別・年齢・学歴・国籍等に基づくバイアスが混入するリスクが高く、公平性の観点から慎重な審査が必要です。「評価レポートを作成する」という形であっても、採用判断に直接影響を与えるため、倫理審査委員会の承認が必須です。低リスク(A)は過小評価、禁止(D)は過度に保守的であり、最終判断が人間であることを前提とした中リスク(B)も、影響の直接性を考えると不十分です。


Q2. Responsible AIの実践

Responsible AIの「3つの柱」のうち「Detect(検出)」に該当する活動として最も適切なものはどれですか?

  • A. AI利用規程を策定し、全社に展開する
  • B. 公平性指標を定期的に計測し、バイアスの発生を検知する
  • C. プロンプトインジェクション対策としてガードレールを実装する
  • D. 全社員向けにAI倫理研修を実施する
答えを見る

正解: B

Responsible AIの3つの柱: Detect(検出)は問題を発見する活動、Mitigate(軽減)は問題に対処する活動、Govern(統制)は組織的な統制の仕組みです。公平性指標の計測とバイアス検知(B)はDetectに該当します。AI利用規程の策定(A)と倫理研修(D)はGovernに該当し、ガードレールの実装(C)はMitigateに該当します。


Q3. ガバナンス体制

AI利用の「3層ガバナンスモデル」において、高リスクAIプロジェクトの承認判断を行うのはどの層ですか?

  • A. 実行層(Operational) — 開発チームが自律的に判断する
  • B. 管理層(Management) — AI倫理審査委員会が審査・承認する
  • C. 戦略層(Strategic) — CxOが直接承認する
  • D. 外部監査法人 — 第三者が判断する
答えを見る

正解: B

3層ガバナンスモデルにおいて、高リスクAIプロジェクトの審査・承認は管理層(Management)のAI倫理審査委員会が担当します。戦略層(C)は全社AI戦略の方向性や大規模投資の判断を行い、個別プロジェクトの審査は管理層に委任します。実行層(A)は日常的な開発・運用を行いますが、高リスクの判断は管理層のレビューが必須です。外部監査法人(D)は定期的な監査を行いますが、プロジェクト承認の判断主体ではありません。


Q4. リスクマネジメント

NIST AI Risk Management Frameworkの4つの機能「Govern、Map、Measure、Manage」のうち、「リスクの洗い出しと影響分析を行い、リスク登録簿を作成する」活動に該当するのはどれですか?

  • A. Govern — リスク管理の文化・体制を確立する
  • B. Map — AIシステムのリスクを特定・分類する
  • C. Measure — リスクを定量的に評価する
  • D. Manage — リスクに対応する施策を実行する
答えを見る

正解: B

NIST AI RMFの4機能: Govern(統治)はリスク管理の文化・体制・ポリシーを確立する機能、Map(マッピング)はリスクの洗い出し・特定・分類を行う機能、Measure(測定)はリスクを定量的に評価する機能、Manage(管理)はリスクに対応する施策を実行する機能です。リスクの洗い出し、影響分析、リスク登録簿の作成はMap機能に該当します。定量評価(確率×影響度のスコアリング等)はMeasureで行います。


Q5. AI倫理の総合判断

あなたの組織で、AIチャットボットがある顧客グループに対して著しく品質の低い回答を返していることが発覚しました。最も適切な対応順序はどれですか?

  • A. まず原因を完全に究明してから、修正・報告を行う
  • B. 即座にサービスを全面停止し、原因究明後に再開する
  • C. 該当グループへの回答品質を即時改善し、その後根本原因を分析。必要に応じて倫理審査委員会に報告する
  • D. 軽微な品質差であれば次回の定期メンテナンスで対応する
答えを見る

正解: C

特定グループへの品質差は公平性の問題(バイアス)であり、倫理的に重大です。まず該当グループへの回答品質を即時改善(応急措置)し、その後根本原因を分析します。バイアスの可能性がある場合は倫理審査委員会に報告が必要です。原因究明を優先(A)すると、問題が放置される期間が長くなります。全面停止(B)は影響範囲が広すぎる過剰対応です。次回メンテナンスまで待つ(D)は公平性問題を軽視しており、倫理的に不適切です。


結果

合格(4問以上正解)

Step 2の内容をよく理解しています。AI倫理フレームワーク、Responsible AI、ガバナンス体制、リスクマネジメントの知識を身につけました。次のStep 3「AI人材戦略を策定しよう」に進みましょう。

不合格(3問以下正解)

Step 2の内容を復習しましょう。特に以下のポイントを重点的に確認してください:

  • 倫理リスクの分類 — 低・中・高・禁止の4レベルとその基準
  • Responsible AIの3つの柱 — Detect、Mitigate、Governの役割
  • 3層ガバナンスモデル — 戦略層・管理層・実行層の責務
  • NIST AI RMF — 4つの機能(Govern、Map、Measure、Manage)

推定所要時間: 30分