EXERCISE 90分

ストーリー

田中VPoE
ガバナンスの全体像、ポリシー、監査証跡、規制対応を学んだ。ここでNetShop社のAIガバナンスフレームワークを実際に策定してもらう
あなた
全社横断的なフレームワークを作るんですね
田中VPoE
そうだ。CTOから「来月の取締役会でAIガバナンス計画を報告したい」という依頼が来ている。経営層にも伝わる品質の計画書を期待している
あなた
実務で使えるレベルのものを目指します

ミッション概要

項目内容
目標NetShop社のAIガバナンスフレームワークを策定する
所要時間90分
ミッション数3つ
使用知識ガバナンスフレームワーク / ポリシー / 監査証跡 / 規制対応
評価観点網羅性、実現可能性、規制対応の適切さ

Mission 1: AI利用ポリシーの策定(30分)

シナリオ

【現状】
- 社内で利用中のAIサービス: 12個(うち3個は未承認のシャドーIT)
- AI利用者: 約150名(全社員の50%)
- インシデント: 過去6ヶ月で3件(個人情報の外部AI送信2件、著作権疑義1件)

タスク

NetShop社のAI利用ポリシーを策定してください。

【AI利用ポリシー】

1. 目的と適用範囲:
   ___

2. 基本原則(5項目):
   ___

3. 利用区分と承認プロセス:
   | 区分 | リスク | 例 | 承認 |
   |------|-------|-----|------|
   | ___ | ___ | ___ | ___ |

4. データ取扱い規定:
   | データ分類 | 外部AI | 社内AI | 条件 |
   |-----------|--------|--------|------|
   | ___ | ___ | ___ | ___ |

5. 禁止事項(最低5項目):
   ___

6. 責任分担:
   ___
解答例を見る
1. 目的と適用範囲:
   目的: AIの安全かつ効果的な利用を促進し、リスクを管理する
   適用: 全社員、業務委託先、AIを利用する全ての業務プロセス

2. 基本原則:
   1. 透明性: AI利用の事実と目的を関係者に開示する
   2. 公平性: AIによる差別的な取扱いを防止する
   3. 安全性: データ保護とシステムセキュリティを確保する
   4. 説明責任: AIの判断について人間が責任を持つ
   5. 継続的改善: 定期的な評価と改善を行う

3. 利用区分:
   | 区分 | リスク | 例 | 承認 |
   |------|-------|-----|------|
   | A(自由) | LOW | 文章校正、翻訳、議事録要約 | ガイドライン遵守のみ |
   | B(届出) | MED | チャットボット、レコメンド | 部門長 + AI推進チーム |
   | C(許可) | HIGH | 顧客対応自動化、価格決定 | AI倫理委員会 + 経営 |
   | D(禁止) | 禁止 | 採用自動決定、個人スコアリング | 利用不可 |

4. データ取扱い:
   | 分類 | 外部AI | 社内AI | 条件 |
   |------|--------|--------|------|
   | 公開情報 | OK | OK | なし |
   | 社内一般 | 条件付OK | OK | 機密マーキング確認 |
   | 機密 | NG | 条件付OK | CISO承認、暗号化必須 |
   | 個人情報 | NG | 条件付OK | DPO承認、匿名化必須 |

5. 禁止事項:
   1. 個人情報を外部AIサービスに送信すること
   2. AI生成コンテンツを検証なく公開すること
   3. 未承認のAIサービスを業務で使用すること
   4. AIの判断を最終意思決定として無条件に採用すること
   5. 差別的なコンテンツや虚偽情報をAIで生成すること
   6. 競合他社の機密情報をAIに入力すること

6. 責任分担:
   経営層: ポリシー承認、予算確保
   AI倫理委員会: 区分C審査、インシデント最終判断
   AI推進チーム: ポリシー運用、教育、監視
   部門長: 区分B承認、部門内遵守管理
   利用者: ガイドライン遵守、インシデント報告

Mission 2: 監査証跡システムの設計(30分)

タスク

AI利用の監査証跡システムを設計してください。

【監査証跡設計書】

1. ログ収集対象と記録項目:
   | 対象 | 記録項目 | 保持期間 |
   |------|---------|---------|
   | ___ | ___ | ___ |

2. ストレージアーキテクチャ:
   ___

3. 改ざん防止の仕組み:
   ___

4. 主要な監査クエリ(5つ以上):
   ___

5. アラート設計:
   | トリガー | アラートレベル | 通知先 |
   |---------|-------------|--------|
   | ___ | ___ | ___ |
解答例を見る
1. ログ収集対象と記録項目:
   | 対象 | 記録項目 | 保持期間 |
   |------|---------|---------|
   | APIコール | 時刻,ユーザー,モデル,入出力ハッシュ,トークン数,コスト | 1年 |
   | 承認記録 | 申請者,承認者,区分,判定結果,理由 | 5年 |
   | インシデント | 発見日時,影響範囲,対応内容,再発防止策 | 5年 |
   | ポリシー変更 | 変更日,変更者,変更内容,承認者 | 無期限 |
   | 人的レビュー | 対象request_id,レビュー者,判定,修正内容 | 1年 |

2. ストレージアーキテクチャ:
   Hot(30日): DynamoDB → リアルタイム監視、検索
   Warm(1年): S3 Standard → 調査、分析
   Cold(5年): S3 Glacier → 法規制対応、長期保存
   分析: Athena + QuickSight → ダッシュボード、レポート

3. 改ざん防止:
   - S3 Object Lock (WORM) で書込み後の変更を物理的に防止
   - ログエントリにSHA-256ハッシュチェーンを付与
   - CloudTrailでS3操作自体も監査

4. 主要な監査クエリ:
   1. 特定ユーザーの過去N日間のAI利用履歴
   2. 個人情報検出フラグが立った処理の一覧
   3. 未承認AIサービスへのアクセスログ
   4. 部門別・月次のAI利用統計とコスト
   5. 人的レビューで「却下」された処理の傾向分析
   6. エラー率が高いモデル・ユースケースの特定

5. アラート:
   | トリガー | レベル | 通知先 |
   |---------|--------|--------|
   | 個人情報の外部AI送信検知 | CRITICAL | CISO + AI倫理委員長 |
   | 未承認AIサービス利用 | HIGH | AI推進チーム + 部門長 |
   | ログ欠損(1時間以上) | HIGH | SREチーム |
   | 月間コスト超過(予算の80%) | WARNING | AI推進チーム + 経理 |
   | エラー率急増(前日比200%) | WARNING | 開発チーム |

Mission 3: コンプライアンス対応計画の策定(30分)

タスク

NetShop社のAI関連法規制対応計画を策定してください。

【コンプライアンス対応計画】

1. 法規制チェックリスト:
   | 法規制 | 関連するAIシステム | 現状 | 対応状況 |
   |--------|----------------|------|---------|
   | ___ | ___ | ___ | ___ |

2. 優先対応項目(緊急度順):
   ___

3. 実施ロードマップ:
   | Phase | 期間 | 施策 | 成果物 |
   |-------|------|------|--------|
   | ___ | ___ | ___ | ___ |

4. 組織体制:
   必要な役割と人員: ___
   外部リソース: ___

5. 予算見積り:
   ___
解答例を見る
1. 法規制チェックリスト:
   | 法規制 | 関連AIシステム | 現状 | 対応状況 |
   |--------|-------------|------|---------|
   | 個人情報保護法 | チャットボット,CRM AI | プライバシーポリシーにAI記載なし | 未対応 |
   | 著作権法 | 画像生成AI,商品説明生成 | AI生成コンテンツの管理なし | 一部対応 |
   | 景品表示法 | レコメンド,価格表示 | AI関与の表示なし | 未対応 |
   | EU AI Act | 全AIシステム(海外展開時) | 未評価 | 未対応 |
   | AI事業者ガイドライン | 全AIシステム | ガイドライン未参照 | 未対応 |

2. 優先対応項目:
   1. 個人情報の外部AI送信の即時停止と代替手段の整備(緊急)
   2. プライバシーポリシーのAI利用に関する記載追加(1ヶ月以内)
   3. AI生成コンテンツの管理プロセス構築(2ヶ月以内)
   4. AI事業者ガイドラインとの整合性確認(3ヶ月以内)
   5. EU AI Act対応の事前評価(6ヶ月以内)

3. ロードマップ:
   | Phase | 期間 | 施策 | 成果物 |
   |-------|------|------|--------|
   | 緊急 | 1ヶ月 | 個人情報送信停止、ポリシー更新 | 修正ポリシー |
   | Phase1 | 2-3ヶ月 | 著作権管理、表示義務対応 | 運用ガイドライン |
   | Phase2 | 4-6ヶ月 | ガイドライン整合、EU対応評価 | コンプライアンスレポート |
   | Phase3 | 7-12ヶ月 | 自動チェック構築、外部監査 | 監査レポート |

4. 組織体制:
   AI倫理責任者(兼任): CTO
   コンプライアンス担当(1名): 法規制対応の実務
   AI推進チーム(既存3名): 技術的対応の実装
   外部: 弁護士事務所(AI法務)、外部監査法人(年次)

5. 予算:
   外部弁護士: 200万円/年
   外部監査: 150万円/年
   システム改修: 300万円(初年度)
   教育研修: 100万円/年
   合計: 初年度750万円、2年目以降450万円/年

達成度チェック

評価項目A(優秀)B(合格)C(要改善)
ポリシー策定全セクションが具体的で実運用可能主要項目を網羅項目が不足
監査証跡設計改ざん防止含む包括的設計基本的なログ設計ログ項目が不十分
コンプライアンス法規制を網羅し優先順位を明示主要法規制を把握法規制の把握が不足
実現性予算・体制含む具体的計画段階的な計画がある実現方法が不明確

推定所要時間: 90分