LESSON

深層学習入門

田中VPoE:「Month 2 で構築した離反予測モデルは、テーブルデータに対してはうまく機能している。でも最近、商品画像の分類精度が伸び悩んでいるんだ。手動で特徴量を設計するのに限界を感じている。」

あなた:「画像やテキストのような非構造化データは、従来の機械学習だと難しいですよね。」

田中VPoE:「そこで登場するのが深層学習だ。データから特徴量を自動的に学習してくれる。まずは深層学習の全体像を把握しよう。」

深層学習とは

深層学習(Deep Learning)は、多層のニューラルネットワークを使って、データから階層的な特徴表現を自動的に学習する機械学習の一分野です。

従来の機械学習との違い

観点従来の機械学習深層学習
特徴量設計人手で設計(特徴量エンジニアリング)データから自動学習
データ量少量でも動作大量データで真価を発揮
計算資源CPU で十分GPU が必要なことが多い
解釈性比較的高いブラックボックスになりがち
非構造化データ苦手(前処理が大変)得意(画像・テキスト・音声)
従来のML:
  生データ → [手動特徴量設計] → 特徴量 → [モデル学習] → 予測

深層学習:
  生データ → [特徴量の自動学習 + モデル学習] → 予測

深層学習が得意なタスク

深層学習は以下のようなタスクで従来手法を大きく上回る性能を発揮します。

タスク具体例(NetShop)使用モデル
画像分類商品画像のカテゴリ自動判別CNN
物体検出商品画像内の個別アイテム検出YOLO, Faster R-CNN
テキスト分類レビューの感情分析BERT, GPT
自然言語処理商品説明の自動生成Transformer
推薦システムパーソナライズ商品推薦Deep Neural Network
異常検知不正取引の検出Autoencoder

深層学習の歴史的転換点

1958年  パーセプトロン提案

1986年  誤差逆伝播法の再発見

2012年  AlexNet が ImageNet で圧勝(深層学習ブーム開始)

2017年  Transformer 登場("Attention Is All You Need")

2018年  BERT 登場(NLP の革命)

2020年~ GPT-3, 大規模言語モデル(LLM)の時代

深層学習が適さないケース

万能ではない点も理解しておきましょう。

  • データが少ない: 数百件程度では過学習しやすい(転移学習で緩和可能)
  • テーブルデータの分類/回帰: LightGBM/XGBoost が依然として強い
  • 厳密な解釈性が必要: 規制が厳しい金融審査などではリスクあり
  • 計算リソースが限られる: 推論コストが高い場合がある

まとめ

  • 深層学習はデータから特徴量を自動学習する技術
  • 画像・テキスト・音声などの非構造化データで特に威力を発揮する
  • テーブルデータでは従来の ML(勾配ブースティングなど)が依然として有力
  • 大量のデータと計算リソースが必要になることが多い

チェックリスト

  • 深層学習と従来の機械学習の違いを説明できる
  • 深層学習が得意なタスクを3つ以上挙げられる
  • 深層学習が適さないケースを理解した

次のステップへ

次のレッスンでは、ニューラルネットワークの最小単位である「パーセプトロン」と、ニューロンの出力を制御する「活性化関数」について学びます。


推定読了時間: 15分