決定木(1)
データの分類に使われる代表的なアルゴリズムの1つである決定木を取り上げます。
各 (, 2, , ) を質的データまたは量的データとし、 個の説明変数 を持つ 個の対象が 個のクラス に分類されているとします。 をクラスに分類するとは を互いに共通部分を持たない部分集合に分割することなので、 は次の条件を満たす の部分集合とします:
対象 に関する説明変数の値を 、目的変数の値を 、、 とします。
所与の分類 と説明変数 の関係性を仮説として表現するために次で定義する決定木を利用します。
定義1(決定木) を の空でない部分集合とし、 の(空集合を含まない)適当な部分集合族 と写像 , について次の関係が成り立つとする。
- に対し ならば は の真部分集合である。
- は次を満たす: \begin{equation*} R(t)=\begin{cases} t\setminus L(t), & L(t)\in T,\\ \emptyset, & L(t)=\emptyset. \end{cases} \end{equation*}
- であり、任意の に対して または を満たす が存在する。
このとき組 を決定木*1と呼ぶ。また決定木を扱っていることが明らかな場合、 のことも決定木と呼ぶことにする。
決定木の性質を述べるために幾つかの言葉を準備します。
定義2 を決定木とする。
- 各 をノードと呼ぶ。
- 定義 1 における を根ノードと呼ぶ。また を満たす を終端ノードと呼び、 の終端ノード全体を と書く。
- と が空集合でないとき、 と を の子ノード、また を (または ) の親ノードと呼ぶ。 に対して または を満たす を の祖先、 を の子孫と呼ぶ。
上記の言葉を用いると、決定木とは根ノード以外の全てのノードに必ず親ノードが存在するような部分集合族と言い表すことが出来ます。
以下、決定木 の根ノードは とします。また は有限とします。
終端ノード は を互いに共通部分を持たない集合に分割している(つまりクラス分類を与えている)ことに注意して、求める仮説は仮説集合
の中から探すことにします。ただし は決定木全体、 は から を満たす への写像、 は を所与の何れかのクラス (, 2, , )に対応させる写像です。
記法 表現を簡潔にするために、集合 のうち集合 との共通部分が占める割合をデータ を使って測ったものを で表すことにします:
特に のとき と書きます。
まず ですが、 に占める の割合 が最大となる を対応させるものが自然と思われます。つまり
次に ですが、取りあえずは予測値と観測値との間の残差
(ただし は , かつ である の部分集合 と の差を表現する損失関数)を最小化する仮説とします。
に対して なので
ただし .
ここで損失関数 として を満たす狭義上に凸の非負関数 を用いて
と表されるものを考えます。このとき残差 を と書くことにします。 は次のように書き直せます。
例 以下は の例です。
- (ジニ係数) ()
- (エントロピー) \begin{equation*} \phi(p)=\begin{cases} -p\log p, & 0<p\le1,\\ 0, & p=0. \end{cases} \end{equation*}
決定木が深くなることで がどのように変化するかを調べます。
命題3 の終端ノード を2つの集合 , (, )に分割して , とし、 よりも1段階深くした決定木 を考える。このとき \begin{equation*} \begin{split}\varDelta\widehat{R}(T,\phi,s;t_{1},t_{2}) & :=\widehat{R}(T,\phi,s)-\widehat{R}(T\cup\{t_{1},t_{2}\},\phi,s)\\ & =p(t)\sum_{i\in I(t)}\phi(p(c_{i}|t))-\sum_{j=1,2}p(t_{j})\sum_{i\in I(t_{j})}\phi(p(c_{i}|t_{j})) \end{split} \end{equation*} とすると が成り立つ。つまり決定木 による予測値は、決定木 による予測値と比べて観測値との残差を小さくする。
証明 , , とすると , , (, ), が成り立つ。 \begin{equation*} \begin{split}\varDelta\widehat{R}(T,\phi,s;t_{1},t_{2})=\sum_{i\in I_{12}} & \left\{ p(t)\phi(p(c_{i}|t))-\sum_{j=1,2}p(t_{j})\phi(p(c_{i}|t_{j}))\right\} \\ & +\sum_{j=1,2}\sum_{i\in I_{j}}\left\{ p(t)\phi(p(c_{i}|t))-p(t_{j})\phi(p(c_{i}|t_{j}))\right\} \end{split} \end{equation*} であるが、 の凸性 \begin{equation*} \phi(p(c_{i}|t))>\sum_{j=1,2}\frac{p(t_{j})}{p(t)}\phi(p(c_{i}|t_{j})). \end{equation*} より が成り立つ。(証明終)
命題 3 および命題 4 より、集合の分割を繰り返すことで残差 は徐々に小さくなっていき、各 が別々の終端ノードに属する状態になったとき残差 はゼロとなります。しかしデータの間に共通性を見出してまとめていく行為を分類と呼んでいることに注意すれば、このような状態は我々が求めるべき答えでないことは明らかです。つまり を最小化する方法では適切な仮説を決定できないことが分かります。
そこで今度は分割数が大きすぎることに対するペナルティ項を加えた
を最小化する仮説を求めることにします。 はペナルティの大きさを調整するパラメータ*2です。
注意 ペナルティ項は決定木における大域的な状態(決定木の大きさ)を調整するためのパラメータであり、局所的な状態(個々のノードにおける適切な分割割合)には関与しません。実際、 を集合 , に分割して
とすると
となり分割の仕方 , には影響を与えないことが分かります。
決定木(2)に続く