LESSON

Step 3 確認クイズ

テキスト分類モデル構築に関する確認クイズである。5問中4問以上の正解で合格となる。


Q1. Naive Bayes

Naive Bayesの「ナイーブ」が意味する仮定はどれか?

  • A) データが正規分布に従う
  • B) 特徴量が互いに独立である
  • C) クラスの割合が均等である
  • D) 学習データが少量で済む

正解: B) 特徴量が互いに独立である

解説: Naive BayesはP(x1,x2,…|C) = P(x1|C)P(x2|C)…と仮定する。実際のテキストでは単語間に依存関係があるが、この素朴(ナイーブ)な仮定でも実用的な精度が得られる。


Q2. BERT Fine-tuning

BERT Fine-tuningで学習率を1e-3に設定した場合に起こりうる問題はどれか?

  • A) 学習が遅すぎて終わらない
  • B) 事前学習で獲得した知識が破壊される(catastrophic forgetting)
  • C) メモリ不足になる
  • D) 特に問題は起こらない

正解: B) 事前学習で獲得した知識が破壊される(catastrophic forgetting)

解説: 1e-3はFine-tuningには大きすぎる学習率であり、事前学習で獲得した言語知識が急速に上書きされてしまう。推奨は2e-5〜5e-5程度の小さな学習率で、事前学習の知識を保持しつつタスクに適応させる。


Q3. LLM Zero-shot

LLM Zero-shotが従来MLより優れている条件はどれか?

  • A) 大量の学習データがある場合
  • B) 学習データがほぼなく、素早くPoCを実施したい場合
  • C) 推論コストを最小限にしたい場合
  • D) リアルタイム処理(<10ms)が必要な場合

正解: B) 学習データがほぼなく、素早くPoCを実施したい場合

解説: LLM Zero-shotの最大の利点は学習データなしで分類が可能な点。プロンプトを用意するだけでPoCを即座に開始できる。一方、コストとレイテンシでは従来MLに劣る。


Q4. 手法比較

月5,000件の問い合わせを分類するシステムで、学習データ3,000件あり、レイテンシ要件が50ms以内の場合、最適な手法はどれか?

  • A) Naive Bayes
  • B) BERT Fine-tuning
  • C) LLM Zero-shot
  • D) LLM Few-shot

正解: B) BERT Fine-tuning

解説: 学習データ3,000件は十分、50msのレイテンシはBERTで対応可能(約10ms)、月5,000件ならAPI費用は不要。精度と運用コストのバランスでBERT Fine-tuningが最適。


Q5. ハイブリッド戦略

テキスト分類システムの段階的移行戦略として最も適切な順序はどれか?

  • A) SVM → BERT → LLM
  • B) LLM Zero-shot → BERT Fine-tuning → SVMフォールバック
  • C) BERT → LLM → SVM
  • D) すべてを同時に開発

正解: B) LLM Zero-shot → BERT Fine-tuning → SVMフォールバック

解説: まずLLM Zero-shotでデータなしにPoCを実施しつつラベルデータを収集、データが溜まったらBERT Fine-tuningに移行して精度とコストを最適化、SVMをフォールバックとして併用する段階的アプローチが現実的。


結果

  • 4問以上正解(80%以上): 合格。Step 3「テキスト分類モデル構築」を修了。
  • 3問以下: 各レッスンを復習してから再挑戦しよう。

推定所要時間: 30分