経験損失を最小化する仮説を導く学習アルゴリズムとその評価
今回は経験損失を最小化する学習アルゴリズムとその評価について議論します。
本記事中で使用する確率論に関する用語および記号は「数理統計学 4 測度論的確率論」をご参照下さい。
定義1 を確率空間、 , を教師データとする。 に関する統計量
を損失関数 の下での仮説 の経験損失という。
また , に対して
も損失関数 の下での仮説 の経験損失と呼ぶ。
予測損失の場合と同様、 および に関する議論において特に を明示する必要が無い場合は を省略して および と書くことにします。
テストデータの分布は一般には未知ですが、仮に教師データの分布と一致している場合には次が成り立ちます。
命題1 を確率空間、, を教師データ、 をテストデータとする。テストデータの確率分布 が教師データの確率分布 に等しいとき、経験損失 は予測損失 の不偏推定量である。つまり
証明 より\begin{align*} E_{P}[\ell(h(X_{i}),Y_{i})] & =\int_{\mathcal{X}\times\mathcal{Y}}\ell(h(x),y)P^{(X_{i},Y_{i})}(d(x,y))\\ & =\int_{\mathcal{X}\times\mathcal{Y}}\ell(h(x),y)P^{(X,Y)}(d(x,y))\\ & =E_{P}[\ell(h(X),Y)] \end{align*}であるから
が成り立つ。(証明終)
以下、学習アルゴリズム として経験損失を最小にするものを考えます:
仮説集合 が有限集合の場合、経験損失を最小にする学習アルゴリズムは存在します。実際、各 に対して は有限集合なので、高々有限回の比較作業により経験損失を最小化する仮説を特定することが可能です。
経験損失を最小にする学習アルゴリズムから得られる仮説について次の評価が成り立ちます。
定理1 教師データ , , およびテストデータ は独立同分布な確率変数列とする。また出力値全体 および仮説集合 を有限集合とする。このとき任意の に対して次が成り立つ: \begin{equation} P^{S}\left(R(\hat{h}_{s})-R(h_{0})\ge R(h_{\mathcal{H}})-R(h_{0})+(b-a)\sqrt{\frac{2}{n}\log\left(\frac{2\#\mathcal{H}}{\varepsilon}\right)}\right)\le\varepsilon \label{eq:estimation_for_empirical_risk_minimization} \end{equation} ただし 、、 である。
証明 が有限集合より である。また が有限集合より が存在する。
、、 の定義より
であるから、任意の に対して
\begin{equation*}\begin{split}R(\hat{h}_{s})-R(h_{0}) & =R(\hat{h}_{s})-\hat{R}(\hat{h}_{s},s)+\hat{R}(\hat{h}_{s},s)-R(h_{\mathcal{H}})+R(h_{\mathcal{H}})-R(h_{0})\\ & \le R(\hat{h}_{s})-\hat{R}(\hat{h}_{s},s)+\hat{R}(h_{\mathcal{H}},s)-R(h_{\mathcal{H}})+R(h_{\mathcal{H}})-R(h_{0})\\ & \le2\,\max_{h\in\mathcal{H}}|\hat{R}(h,s)-R(h)|+R(h_{\mathcal{H}})-R(h_{0}). \end{split}\end{equation*}よって \begin{equation*} \begin{split}\bigl\{\,s\in & (\mathcal{X}\times\mathcal{Y})^{n}\,\big|\,R(\hat{h}_{s})-R(h_{0})\ge\delta\,\bigr\}\\ \subset & \left\{ \,s\in(\mathcal{X}\times\mathcal{Y})^{n}\,\bigg|\,\max_{h\in\mathcal{H}}|\hat{R}(h,s)-R(h)|\ge\frac{\delta-(R(h_{\mathcal{H}})-R(h_{0}))}{2}\right\} \\ = & \bigcup_{h\in\mathcal{H}}\biggl\{\,s\in(\mathcal{X}\times\mathcal{Y})^{n}\,\bigg|\,\underset{h'\in\mathcal{H}}{\mathrm{arg\, max}}\, |\hat{R}(h',s)-R(h')|=h,\\ & \qquad\qquad\qquad|\hat{R}(h,s)-R(h)|\ge\frac{\delta-(R(h_{\mathcal{H}})-R(h_{0}))}{2}\biggr\}\\ \subset & \bigcup_{h\in\mathcal{H}}\biggl\{\,s\in(\mathcal{X}\times\mathcal{Y})^{n}\,\biggl|\,|\hat{R}(h,s)-R(h)|\ge\frac{\delta-(R(h_{\mathcal{H}})-R(h_{0}))}{2}\,\biggr\} . \end{split}\end{equation*}となるので\begin{equation*}\begin{split} P^{S} & (R(\hat{h}_{s})-R(h_{0})\ge\delta)\\ & \le\sum_{h\in\mathcal{H}}P^{S}\left(|\hat{R}(h,s)-R(h)|\ge\frac{\delta-(R(h_{\mathcal{H}})-R(h_{0}))}{2}\right) . \end{split}\end{equation*}
ところで は独立同分布な確率変数列であるから も独立同分布な確率変数列となる。このことと命題1を合わせて考えれば、確率変数列 に対してヘフディングの不等式*1を適用することが出来るから、正数 に対して\begin{equation*}\begin{split}P^{S} \bigg(|\hat{R}(h,s) &-R(h)|\ge\frac{\delta-(R(h_{\mathcal{H}})-R(h_{0}))}{2}\bigg)\\ & \le2\exp\left(-\frac{n}{2}\left(\frac{\delta-(R(h_{\mathcal{H}})-R(h_{0}))}{b-a}\right)^{2}\right)\end{split}\end{equation*}が成り立つ。従って
ここで任意の に対して を
と取ると、
が成り立つ。(証明終)
学習アルゴリズムの精度について考察を進めるため、以下を定義します。
定義2 任意の に対して、ある が存在して
と書けるとき を学習アルゴリズム に関する推定誤差という。また を と書き、これを近似誤差と呼ぶ。
はベイズ誤差 を の要素で近似することに伴う誤差であり、 は予測誤差 に関して の中で最も適した仮説 ではなく、推定量 を予測に用いることで生じる誤差を表しています。
経験損失を最小にする仮説を導く学習アルゴリズムに対する評価式 \eqref{eq:estimation_for_empirical_risk_minimization} の場合、 \begin{equation}\displaystyle \mathrm{var}_{\hat{h}}=(b-a)\sqrt{\frac{2}{n}\log\left(\frac{2\#\mathcal{H}}{\varepsilon}\right)} \label{eq:variance_for_empirical_risk_minimization} \end{equation} となります。この場合、次のことが成り立ちます。
命題2 定理1と同じ状況の下で、2つの仮説集合 に対して次が成り立つ:
ただし値域が である学習アルゴリズムを とした。
証明 推定誤差についての不等式は明らか。また近似誤差についても
より直ちに分かる。(証明終)
ここで経験損失を最小化する仮説を導く学習アルゴリズムについて、推定誤差および近似誤差を小さくするための条件についてまとめておきましょう。まず \eqref{eq:variance_for_empirical_risk_minimization} により、推定誤差を小さくするためには教師データの数を増やせば良いことが分かります。また命題2により、近似誤差を小さくするためには仮説集合のサイズを大きくすれば良いことも分かります。しかし仮説集合のサイズを大きくすると、推定誤差は大きくなってしまいます。
以上のことから、十分な数の教師データがある場合、より沢山の仮説の中からデータに対する説明力・予測力が高い仮説を見つけ出すことが出来ます。一方で教師データの数が十分でない場合には、近似誤差と推定誤差のどちらか一方が極端に大きくなることが無いような適切な仮説集合を設定する必要があります。しかし( の定義により) は教師データの分布 に依存することから、そうした仮説集合を組織的に見つけることは難しい為、この問題に対する処方箋として正則化と呼ばれる手法が用いられます。
参考文献
- 金森敬文,統計的学習理論, 講談社, 2015