機械学習モデルのうち、今注目されている「ディープラーニングモデル」では、離散値を予測するタイプである「分類」型の利用例の方が多くなります。それでも前回、数値を予測するタイプのモデルである「回帰」型をまず取りあげたのは、その方が数学的にやさしく、それを理解することで「分類」型も理解しやすくなるためです。

 分類機能を実現するモデルの種類には様々なものがあり、その中でも代表的なモデルをまとめると下のようになります。

代表的な分類モデル
[画像のクリックで拡大表示]

 次に学んでいってほしいのは、「ロジスティック回帰モデル」「ニューラルネットワークモデル」の2つです。それは、この2つのモデルには共通の特徴があり、また「ディープラーニングモデル」はこの2つのモデルの発展形と考えられるからです。

 「ロジスティック回帰モデル」「ニューラルネットワークモデル」「ディープラーニングモデル」に共通の特徴を整理すると、次の(A)から(E)になります。

 (A)予測モデルの構造は事前に決まっていて、パラメーター値にだけ自由度がある。
 (B)モデルの構造は次のようなものになる。
  (1)個々の入力値にパラメーター値(「重み」と呼ぶ)をかける。
  (2)かけた結果の和をとる。
  (3)(2)の結果にある関数(「活性化関数」と呼ぶ)を作用させ、その関数の出力を最終的な予測値(yp)とする。
 (C)パラメーター値(重み)の最適化が学習となる。
 (D)モデルが正解値をどの程度正しく予測できるかを評価するため「損失関数」を定める。
 (E)損失関数から適正なパラメーター値を見つけるため「勾配降下法」という手法を用いる。

 下図に(B)の構造を示しました。

予測モデルの構造
[画像のクリックで拡大表示]

 ロジスティック回帰とは、上の(B)の構造を1階層持っているモデルです。ニューラルネットワークモデルでは、「隠れ層」と呼ばれる中間のノードが増えてこの構造が2階層になります。

ニューラルネットワークモデルの構造
[画像のクリックで拡大表示]