クイズの説明
Step 4「AIガバナンスと倫理」の理解度を確認します。ガバナンスフレームワーク、倫理ガイドライン、リスク管理、コンプライアンス監査について問います。
合格ライン: 80%(10問中8問正解)
問題
Q1. AIガバナンスの3つの柱
AIガバナンスフレームワークの3つの柱として正しいものはどれですか?
- A. 開発・テスト・運用
- B. ポリシー・プロセス・組織体制
- C. コスト・品質・スピード
- D. 技術・ビジネス・法務
答えを見る
正解: B)
AIガバナンスの3つの柱は、何をすべきかを定める「ポリシー」(What)、どう実施するかの「プロセス」(How)、誰が責任を持つかの「組織体制」(Who)です。この3つが揃って初めてガバナンスが機能します。
Q2. リスクレベルの分類
採用AIのような「人の権利に直接影響するAI」はどのリスクレベルに分類されますか?
- A. 低リスク
- B. 中リスク
- C. 高リスク
- D. リスクなし
答えを見る
正解: C)
人の採用・不採用を判断するAIは、個人の権利やキャリアに直接影響するため「高リスク」に分類されます。高リスクAIはAI倫理委員会の承認が必要で、バイアス検査や説明可能性の確保が義務付けられます。
Q3. AI倫理の原則
AI倫理の基本原則のうち「透明性」の意味として最も適切なものはどれですか?
- A. AIのソースコードを全て公開すること
- B. AIの判断プロセスを利用者に説明できること
- C. AIの開発コストを開示すること
- D. AIの開発者の名前を公開すること
答えを見る
正解: B)
透明性とは、AIがどのような根拠で判断を行ったかを利用者に説明できることを意味します。ソースコードの公開(A)はオープンソースの話であり、透明性の本質はAIの判断根拠の説明可能性です。
Q4. バイアスの種類
「AIの出力を人間が無批判に信頼してしまう」バイアスはどれですか?
- A. 学習データバイアス
- B. 選択バイアス
- C. 確認バイアス
- D. 自動化バイアス
答えを見る
正解: D)
自動化バイアスは、人間がAIの出力を過度に信頼し、批判的な検証をせずに受け入れてしまう傾向です。AIの精度が高い場合でもエラーは発生するため、適切な人間のレビューが重要です。
Q5. プライバシー保護
AIでの個人データ利用における「目的限定の原則」とは何ですか?
- A. データの収集量を制限すること
- B. 収集した目的以外にデータを使用しないこと
- C. データの保管期間を限定すること
- D. データのアクセス者を限定すること
答えを見る
正解: B)
目的限定の原則は、ユーザーから同意を得た利用目的以外にデータを使用しないという原則です。例えば「レコメンド改善」目的で収集した購買データを「採用AI」の学習に転用することは、この原則に反します。
Q6. 連鎖リスク
AI間の連鎖リスクの例として最も適切なものはどれですか?
- A. 各AIが独立して動作し、相互に影響しない
- B. 需要予測AIの精度低下が在庫管理AIと発注AIに波及する
- C. AI開発のスケジュールが遅延する
- D. AIの運用コストが増加する
答えを見る
正解: B)
連鎖リスクは、あるAIシステムの問題が依存関係を通じて他のAIシステムに波及するリスクです。需要予測AIのデータが在庫管理や発注の判断に使われている場合、予測精度の低下がサプライチェーン全体に影響します。
Q7. 3線モデル
リスク管理の3線モデルにおいて「第2線」の役割はどれですか?
- A. 日常的なリスク対応を行う業務部門
- B. ポリシーの策定と遵守状況の監視を行うリスク管理部門
- C. 独立した立場でガバナンスを評価する内部監査
- D. 外部の第三者による評価
答えを見る
正解: B)
3線モデルでは、第1線が業務部門(リスクのオーナー)、第2線がリスク管理部門(ポリシー策定と遵守監視)、第3線が内部監査(独立した評価)です。第2線は第1線を支援・監視する役割を担います。
Q8. 監査チェック
AI監査で「バイアス検査」の合格基準として一般的なものはどれですか?
- A. バイアスが完全にゼロであること
- B. 属性グループ間の精度差が一定の閾値以内であること
- C. 全ての属性グループで100%の精度であること
- D. バイアスの存在を認識していること
答えを見る
正解: B)
バイアスを完全にゼロにすることは現実的に困難です。実務的には「属性グループ間の精度差が5%以内」のように、許容範囲を定めてその基準を満たしているかを検査します。重要なのは基準を明確にし、定期的に検査することです。
Q9. インシデント対応
AIインシデント発生時の対応として最も優先すべきことはどれですか?
- A. 原因の徹底分析
- B. 影響範囲の特定と被害の拡大防止
- C. 詳細な報告書の作成
- D. AIモデルの再学習
答えを見る
正解: B)
インシデント発生時は、まず影響範囲を特定し、被害の拡大を防止することが最優先です。必要に応じてAIシステムの一時停止や手動フローへの切替を行います。原因分析(A)や報告書作成(C)は重要ですが、拡大防止の後に行います。
Q10. 是正措置
監査で「個人情報の不適切な利用」が発見された場合の対応期限はどれですか?
- A. 次回監査まで
- B. 3ヶ月以内
- C. 1ヶ月以内
- D. 1週間以内(即時対応)
答えを見る
正解: D)
個人情報の不適切な利用は法令違反に該当する可能性があり、「即時対応」の優先度に分類されます。1週間以内に是正措置を完了し、再発防止策を講じる必要があります。
結果
合格(8問以上正解)
Step 4の内容をよく理解しています。AIガバナンスと倫理の知識を身につけました。次のStep 5「持続可能なAI活用」に進みましょう。
不合格(7問以下正解)
Step 4の内容を復習しましょう。特に以下のポイントを重点的に確認してください:
- ガバナンスフレームワーク — 3つの柱、リスク分類、審査プロセス
- 倫理ガイドライン — 7原則、バイアスの種類と対策
- リスク管理 — 連鎖リスク、3線モデル
- コンプライアンス監査 — 監査チェックリスト、是正措置
推定所要時間: 30分