総合確認クイズ
Month 4「レコメンデーションで売上を伸ばそう」の総合確認クイズである。10問中8問以上の正解(80%以上)で合格となる。
Q1. 推薦の種類
協調フィルタリングとコンテンツベース推薦の最大の違いはどれか?
- A) 推薦の精度
- B) 協調フィルタリングはユーザー行動、コンテンツベースはアイテム属性を使う
- C) 計算速度
- D) 使用するプログラミング言語
正解: B) 協調フィルタリングはユーザー行動、コンテンツベースはアイテム属性を使う
解説: 協調フィルタリングは「同じ商品を買ったユーザーは似た嗜好を持つ」という仮定に基づくユーザー行動データを活用する。コンテンツベースはアイテムのカテゴリ、ブランド等の属性情報を活用する。
Q2. 行列分解
行列分解(Matrix Factorization)が大規模推薦で有効な理由はどれか?
- A) メモリを大量に使えるため
- B) スパースなユーザー×アイテム行列を低次元の潜在ベクトルで表現できるため
- C) 全ての評価値を正確に復元できるため
- D) リアルタイム処理が不要なため
正解: B) スパースなユーザー×アイテム行列を低次元の潜在ベクトルで表現できるため
解説: ユーザー×アイテム行列は99%以上が空欄(スパース)である。行列分解はこの巨大な行列をユーザー潜在ベクトルとアイテム潜在ベクトルの積に近似し、空欄部分を推定できる。
Q3. NDCG
NDCG@5において、正解が2位にある場合と5位にある場合で、NDCGの値はどうなるか?
- A) 同じ値になる
- B) 2位の方が高い(上位の正解ほど高評価)
- C) 5位の方が高い
- D) 計算できない
正解: B) 2位の方が高い(上位の正解ほど高評価)
解説: NDCGは対数ベースの割引(1/log2(rank+1))を使い、上位の正解ほど高く評価する。2位の割引は1/log2(3)≈0.63、5位は1/log2(6)≈0.39であり、2位の方がNDCGへの貢献が大きい。
Q4. LightFM
LightFMが従来の行列分解より優れている点はどれか?
- A) 計算速度が常に速い
- B) ユーザー/アイテムの特徴量を埋め込みに組み込めるためコールドスタートに強い
- C) メモリ使用量が少ない
- D) 深層学習モデルである
正解: B) ユーザー/アイテムの特徴量を埋め込みに組み込めるためコールドスタートに強い
解説: LightFMはユーザー/アイテムの特徴量(年齢、カテゴリ等)を潜在ベクトルの計算に組み込める。これにより行動履歴がない新規ユーザーでも、属性情報から潜在ベクトルを推定できる。
Q5. Two-Tower
Two-Towerモデルの推論でFAISSを使う最大の理由はどれか?
- A) モデルの学習を高速化するため
- B) 数百万アイテムのスコアリングを近似最近傍探索で高速化するため
- C) データの前処理を自動化するため
- D) モデルの精度を向上させるため
正解: B) 数百万アイテムのスコアリングを近似最近傍探索で高速化するため
解説: Two-Towerではアイテム埋め込みを事前計算しFAISSインデックスに格納する。推論時はユーザー埋め込みとの内積をANN検索で近似計算し、O(N)の全探索をO(logN)に削減する。
Q6. コールドスタート
新規ユーザーへの推薦で最も適切な段階的アプローチはどれか?
- A) 常に人気ランキングを表示
- B) 人気+デモグラフィック → コンテンツベース → ハイブリッド
- C) 常に協調フィルタリングを使用
- D) 推薦を表示しない
正解: B) 人気+デモグラフィック → コンテンツベース → ハイブリッド
解説: 行動データの蓄積量に応じて推薦手法を切り替える段階的アプローチが最適。データなし=人気+属性、少量=コンテンツベース、十分=ハイブリッドと段階的に精度を向上させる。
Q7. 推薦理由
推薦理由の表示がCTRを向上させる心理的メカニズムはどれか?
- A) 情報過負荷の軽減
- B) 推薦の透明性と信頼性が向上し、ユーザーの意思決定を後押しする
- C) ページの読み込み速度が向上する
- D) 商品画像が大きく表示される
正解: B) 推薦の透明性と信頼性が向上し、ユーザーの意思決定を後押しする
解説: 「なぜこの商品が推薦されたか」の理由が明示されることで、推薦システムへの信頼感が高まり、ユーザーはクリック・購入の意思決定をしやすくなる。これを説明可能推薦(Explainable Recommendation)と呼ぶ。
Q8. A/Bテスト
A/Bテストでサンプルサイズが不足している場合に起こる問題はどれか?
- A) 常に有意な結果が得られる
- B) 実際には差があるのに検出できない(第二種の過誤)
- C) 計算コストが高くなる
- D) ユーザー体験が悪化する
正解: B) 実際には差があるのに検出できない(第二種の過誤)
解説: サンプルサイズが不足すると統計的検出力が低下し、実際に存在する差を「有意差なし」と判定する第二種の過誤(Type II Error)のリスクが高まる。事前の検出力分析で適切なサンプルサイズを計算する必要がある。
Q9. 探索と活用
Epsilon-Greedyでepsilon=0.1とした場合の動作として正しいものはどれか?
- A) 10%の確率でランダム推薦、90%の確率で最適推薦
- B) 10%の精度で推薦する
- C) 10個中1個をランダムに入れ替える
- D) 学習率を0.1に設定する
正解: A) 10%の確率でランダム推薦、90%の確率で最適推薦
解説: Epsilon-Greedyは確率epsilonで探索(ランダムまたは多様性重視の推薦)、確率1-epsilonで活用(スコア最高の推薦)を行う。epsilon=0.1は10%の割合で新しいアイテムの探索機会を確保する設定。
Q10. 総合
推薦システムの運用で最も重要な継続的改善サイクルはどれか?
- A) 毎日モデルを一から再学習
- B) オフライン評価→A/Bテスト→本番展開→モニタリング→改善のサイクル
- C) ユーザーアンケートのみで改善
- D) 競合サービスのコピー
正解: B) オフライン評価→A/Bテスト→本番展開→モニタリング→改善のサイクル
解説: 推薦システムの改善はオフラインでの事前検証、A/Bテストでのオンライン検証、本番展開後のモニタリング、そして分析結果に基づく改善という継続的サイクルで行う。各段階にゲートを設け、品質を担保しながら改善を繰り返す。
結果
- 8問以上正解(80%以上): 合格。Month 4「レコメンデーションで売上を伸ばそう」を修了。
- 7問以下: 各Stepのレッスンを復習してから再挑戦しよう。
推定所要時間: 30分