QUIZ 30分

クイズの説明

Step 4で学んだAIガバナンスフレームワークについて理解度をチェックします。

  • 全10問
  • 合格ライン: 80%(8問正解)
  • 不合格の場合は復習してから再挑戦してください

問題

Q1. AIガバナンスの3層構造で、「プロセス・基準」層に該当するものはどれですか?

  • A) AI倫理原則、リスク許容度の定義
  • B) リスクアセスメント手順、監査プロセス、インシデント対応手順
  • C) 監視ダッシュボード、自動テストスイート
  • D) AIモデルのパラメータ設定
答えを見る

正解: B

3層構造は「原則・方針(Why)」「プロセス・基準(How)」「実装・ツール(What)」で構成されます。プロセス・基準層は「どのように」ガバナンスを実践するかを定義する層で、リスクアセスメント手順、監査プロセス、インシデント対応手順などが含まれます。


Q2. AI利用ポリシーの利用区分で「区分C(許可制)」に該当するAIシステムの例として最も適切なものはどれですか?

  • A) 文章校正ツール
  • B) 社内翻訳ツール
  • C) 顧客対応の自動化システム
  • D) スパムフィルタ
答えを見る

正解: C

区分C(許可制)はハイリスクのAIシステムが対象で、AI倫理委員会の審査と経営承認が必要です。顧客対応の自動化は、誤った回答による顧客への影響、個人情報の取扱い、ブランドリスクなど複数のリスク要因があるため、厳格な承認プロセスが求められます。


Q3. AIシステムへの入力データとして「機密情報」を外部AIサービスに送信することが禁止される主な理由は何ですか?

  • A) 外部AIサービスの処理速度が遅いため
  • B) 情報漏洩リスクがあり、データが学習に使用される可能性があるため
  • C) 外部AIサービスの方がコストが高いため
  • D) 社内AIの方が精度が高いため
答えを見る

正解: B

外部AIサービスに機密情報を送信すると、通信経路上での漏洩リスク、サービス提供者側でのデータ保管リスク、さらにデータがモデルの学習に使用されてしまうリスクがあります。一度外部に送信されたデータの完全な削除を保証することは困難です。


Q4. AI監査証跡で入力データそのものではなく「ハッシュ値」を記録する主な理由は何ですか?

  • A) ハッシュ値の方が検索速度が速いため
  • B) データの同一性を検証できつつ、ストレージコストを抑え、データ本体の漏洩リスクを低減するため
  • C) ハッシュ値の方がAIモデルの精度が向上するため
  • D) 法律でハッシュ値での記録が義務付けられているため
答えを見る

正解: B

ハッシュ値を記録することで、後からデータの同一性を検証できる(改ざん検知)一方、ハッシュ値から元データを復元することはできないため、監査ログ自体が漏洩しても入力データは保護されます。データ本体は別途、適切なアクセス制御下のストレージに保存します。


Q5. EU AI Actにおいて「ハイリスク」に分類されるAIシステムに求められない要件はどれですか?

  • A) リスク管理システムの構築
  • B) 学習データの品質・代表性の確保
  • C) AIモデルのソースコードの全面公開
  • D) 人的監督の仕組みの確保
答えを見る

正解: C

EU AI Actはハイリスクシステムに対してリスク管理、データガバナンス、技術文書、ログ記録、透明性、人的監督、精度・堅牢性を要求しますが、ソースコードの全面公開は求めていません。技術文書の作成は必要ですが、これはシステムの仕様書であり、ソースコードの開示とは異なります。


Q6. 監査証跡の改ざん防止策として「ハッシュチェーン」を使用する利点は何ですか?

  • A) ログの検索速度が向上する
  • B) 各エントリに前エントリのハッシュを含めることで、途中のログが改ざんされるとチェーンが破壊され検知できる
  • C) ログのストレージコストが削減される
  • D) ログの圧縮率が向上する
答えを見る

正解: B

ハッシュチェーンでは各ログエントリが前のエントリのハッシュ値を含むため、途中のエントリが改ざんされるとそれ以降の全てのハッシュ値が不整合になります。これによりログの完全性を効率的に検証でき、改ざんの検知が可能になります。


Q7. 日本の著作権法におけるAI学習のためのデータ利用について、正しい記述はどれですか?

  • A) いかなるデータもAI学習に自由に利用できる
  • B) 著作権法30条の4で原則許容されるが、著作権者の利益を不当に害する場合は認められない
  • C) 全てのデータについて著作権者の許諾が必要
  • D) 営利目的のAI学習では一切利用できない
答えを見る

正解: B

日本の著作権法30条の4は、AI学習のためのデータ利用を「著作物に表現された思想又は感情の享受を目的としない利用」として原則許容しています。ただし、著作権者の利益を不当に害する場合(例: 特定クリエイターのスタイルを意図的に模倣する目的など)は例外です。


Q8. AIガバナンスの「ガバナンスゲート」の目的として最も適切なものはどれですか?

  • A) AIシステムの処理速度を制御する
  • B) AIシステムのライフサイクル各段階で品質・安全性の基準を満たしているか確認し、次の段階に進む判断を行う
  • C) AIモデルのハイパーパラメータを調整する
  • D) ユーザーのアクセス権限を管理する
答えを見る

正解: B

ガバナンスゲートは、AIシステムの企画・設計・テスト・デプロイ・運用・廃止の各段階に設置され、次のフェーズに進む前に所定の基準(リスク評価完了、テスト合格、監視設定完了など)を満たしているか確認するチェックポイントです。


Q9. RACIマトリクスで「A(Accountable)」に指定された役割の責任は何ですか?

  • A) 作業を実際に実行する責任
  • B) 最終的な説明責任を持ち、成果物を承認する責任
  • C) 助言や情報提供を行う責任
  • D) 結果の報告を受ける責任
答えを見る

正解: B

RACIマトリクスにおいて、A(Accountable)は最終的な説明責任者です。R(Responsible)が実際に作業を行い、A(Accountable)がその成果物を承認し、問題が発生した場合に最終的な説明責任を負います。各タスクに対してAは1名のみ設定します。


Q10. コンプライアンスプログラムの初期段階(Phase 1)で最も優先すべき施策はどれですか?

  • A) EU AI Actへの完全対応
  • B) AI利用の棚卸しとリスク分類、個人情報保護対応
  • C) 全社員向けの高度なAI倫理研修
  • D) 外部監査の実施
答えを見る

正解: B

Phase 1では現状把握が最優先です。全社で使用中のAIシステムを棚卸しし、各システムのリスクレベルを分類することで、対応の優先順位が明確になります。加えて、個人情報保護法への対応は法的リスクが高いため緊急性があります。高度な研修や外部監査は基盤整備後のフェーズで実施します。


結果

8問以上正解の場合

合格です。Step 4「AIガバナンスフレームワーク」を完了しました。 次はStep 5「AI利用ガイドラインを組織に展開しよう」に進みましょう。

7問以下の場合

もう少し復習しましょう。

問題復習セクション
Q1step4_1 AIガバナンスの全体像
Q2step4_2 AI利用ポリシー策定
Q3step4_2 AI利用ポリシー策定
Q4step4_3 監査証跡
Q5step4_4 規制対応
Q6step4_3 監査証跡
Q7step4_4 規制対応
Q8step4_1 AIガバナンスの全体像
Q9step4_2 AI利用ポリシー策定
Q10step4_4 規制対応

推定所要時間: 30分