深層学習入門
田中VPoE:「Month 2 で構築した離反予測モデルは、テーブルデータに対してはうまく機能している。でも最近、商品画像の分類精度が伸び悩んでいるんだ。手動で特徴量を設計するのに限界を感じている。」
あなた:「画像やテキストのような非構造化データは、従来の機械学習だと難しいですよね。」
田中VPoE:「そこで登場するのが深層学習だ。データから特徴量を自動的に学習してくれる。まずは深層学習の全体像を把握しよう。」
深層学習とは
深層学習(Deep Learning)は、多層のニューラルネットワークを使って、データから階層的な特徴表現を自動的に学習する機械学習の一分野です。
従来の機械学習との違い
| 観点 | 従来の機械学習 | 深層学習 |
|---|---|---|
| 特徴量設計 | 人手で設計(特徴量エンジニアリング) | データから自動学習 |
| データ量 | 少量でも動作 | 大量データで真価を発揮 |
| 計算資源 | CPU で十分 | GPU が必要なことが多い |
| 解釈性 | 比較的高い | ブラックボックスになりがち |
| 非構造化データ | 苦手(前処理が大変) | 得意(画像・テキスト・音声) |
従来のML:
生データ → [手動特徴量設計] → 特徴量 → [モデル学習] → 予測
深層学習:
生データ → [特徴量の自動学習 + モデル学習] → 予測
深層学習が得意なタスク
深層学習は以下のようなタスクで従来手法を大きく上回る性能を発揮します。
| タスク | 具体例(NetShop) | 使用モデル |
|---|---|---|
| 画像分類 | 商品画像のカテゴリ自動判別 | CNN |
| 物体検出 | 商品画像内の個別アイテム検出 | YOLO, Faster R-CNN |
| テキスト分類 | レビューの感情分析 | BERT, GPT |
| 自然言語処理 | 商品説明の自動生成 | Transformer |
| 推薦システム | パーソナライズ商品推薦 | Deep Neural Network |
| 異常検知 | 不正取引の検出 | Autoencoder |
深層学習の歴史的転換点
1958年 パーセプトロン提案
↓
1986年 誤差逆伝播法の再発見
↓
2012年 AlexNet が ImageNet で圧勝(深層学習ブーム開始)
↓
2017年 Transformer 登場("Attention Is All You Need")
↓
2018年 BERT 登場(NLP の革命)
↓
2020年~ GPT-3, 大規模言語モデル(LLM)の時代
深層学習が適さないケース
万能ではない点も理解しておきましょう。
- データが少ない: 数百件程度では過学習しやすい(転移学習で緩和可能)
- テーブルデータの分類/回帰: LightGBM/XGBoost が依然として強い
- 厳密な解釈性が必要: 規制が厳しい金融審査などではリスクあり
- 計算リソースが限られる: 推論コストが高い場合がある
まとめ
- 深層学習はデータから特徴量を自動学習する技術
- 画像・テキスト・音声などの非構造化データで特に威力を発揮する
- テーブルデータでは従来の ML(勾配ブースティングなど)が依然として有力
- 大量のデータと計算リソースが必要になることが多い
チェックリスト
- 深層学習と従来の機械学習の違いを説明できる
- 深層学習が得意なタスクを3つ以上挙げられる
- 深層学習が適さないケースを理解した
次のステップへ
次のレッスンでは、ニューラルネットワークの最小単位である「パーセプトロン」と、ニューロンの出力を制御する「活性化関数」について学びます。
推定読了時間: 15分