数学、ときどき統計、ところによりIT

理論と実践の狭間で漂流する数学趣味人の記録

数理統計学 10 統計的仮説検定

ある統計学的な仮説 \(H_0\) とそれに対立する仮説 \(H_1\) について、観測値と照らし合わせ仮説の採否について判断する作業を(統計的)仮説検定または単に検定と呼びますが、今回は仮説検定を統計的決定理論の枠組みの中で定式化していきます。

まず基本的な方針として仮説の採否は、正しいと思われる方を積極的に支持するのではなく、間違いである可能性が高い方を避ける、という消極的な選択を行います。つまり観測値に応じて仮説を棄却する、または棄却せずに受容するという2者択一の判断をします。そこで検定に関わる決定空間、決定関数を以下の様に定めます。 

定義1 \( (\mathcal{X},\mathcal{B})\) を標本空間とする。

  1. 可測写像 \(\varphi : \mathcal{X}\to [0, 1]\) を検定関数、または単に検定と呼ぶ。
  2. 決定空間を \(\mathcal{D} :=\{0, 1\}\)、\(\mathcal{A} :=\{ \phi, \{ 0\} ,\{ 1\} ,\{ 0, 1\} \}\) とし 検定 \(\varphi \) による決定関数を\begin{equation*}\delta _{\varphi} (A,x):=\varphi (x)\varepsilon _{\{1\}}(A) + (1- \varphi(x))\varepsilon _{\{0\}}(A),\ \ A\in \mathcal{A},\ x\in \mathcal{X}\end{equation*}で定義する。ただし \(\varepsilon _{\{a\}} \) は \(a\) におけるデルタ測度とする。また \(1\in \mathcal{D}\) は仮説 \(H_0\) を棄却することを表す。従って観測値が \(x\in \mathcal{X}\) であるとき確率 \(\varphi (x) \) で仮説 \(H_0\) を棄却する。
  3. 検定 \(\varphi\) が \(\varphi (\mathcal{X})\subset \{0, 1\}\) を満たすとき \(\delta _{\varphi}\) は非確率的となるから \(\varphi\) を非確率化検定と呼ぶ。非確率的でないとき \(\varphi\) を確率化検定と呼ぶ。
  4. \(\mathcal{X}\) から \([0, 1]\) への可測写像全体の(部分)集合を \(\Phi\) とする。\(\Phi\) に基づき行われる意思決定全体を \(\Delta _{\Phi} := \{ \delta _{\varphi} \ | \ \varphi \in \Phi\}\) とする。

 

次に検証するべき仮説ですが、観測値が従う分布に関する仮説が最も基本的です。つまり \(\Theta\)、\(\Theta_0\) および \(\Theta_1\) が  \( \Theta=\Theta_0\cup \Theta_1\) かつ \(\Theta_0\cap \Theta_1=\emptyset\) を満たすとし、観測値が \(P_{\theta}\)  ( \(\theta \in \Theta_0\) ) に従う、という仮説を \(H_0\)、それと対立する仮説を \(H_1\) とします。*1

これらの仮説を定義1で定める決定関数に従って棄却または受容する訳ですが、定義1によって決まる検定関数(つまり決定関数)は無数に存在します。当然、その場の思いつきで検定関数を選び検定を実施してしまうと、選択するべきでない仮説を選択してしまう可能性が高くなります。そこで、不適切な仮説を選択する可能性を出来る限り小さくするために、検定関数毎に選択の誤りのリスクを定量化し、使用する検定関数の適切さの指標とします。

選択の誤りには次の2種類が存在します。仮説 \(H_0\) が正しいのに棄却してしまう第1種の誤りと、仮説 \(H_0\) が誤りであるのに受容してしまう第2種の誤りです。そこでこの誤りに関する損失関数を \(a\in \mathcal{D}\) に対して\begin{equation*} w(\theta ,a):=\begin{cases}\chi _{1}(a), & \theta \in \Theta_0 \\ \chi _{0}(a), & \theta \in \Theta_1 \end{cases}\end{equation*}と定義します。このとき \(w\) に関する危険関数 \(r\) は\begin{equation*} r(\theta,\delta _{\varphi}):=E_{P_{\theta}}\! \left[ \int _{\mathcal{D}} w(\theta, a) \delta _{\varphi}(da,\cdot )\right] =\begin{cases}E_{P_{\theta}}[\varphi ], & \theta \in \Theta_0 \\ 1-E_{P_{\theta}}[\varphi ], & \theta \in \Theta_1 \end{cases}\end{equation*}となります。この危険関数は検定 \(\varphi \) における第1種および第2種の平均的な誤りの大きさ(リスク)を表しています。

さて第1種の誤りと第2種の誤りのリスクには、一方が減少すれば他方は増加する傾向が見られます。実際、\(\varphi\) と \(\varphi '\) を \( \varphi < \varphi '\) を満たす検定とすると \(\theta \in \Theta_0\) に対しては \( r(\theta ,\delta_{\varphi})\le r(\theta ,\delta_{\varphi '})\) であるにも関わらず \(\theta \in \Theta_1\) に対しては \( r(\theta ,\delta_{\varphi})\ge r(\theta ,\delta_{\varphi '})\) となってしまいます。

そこで第1種の誤りをある程度許容した上で、より問題となる第2種の誤りのリスクを低減していくことを考えます。

定義2 

  1. \(\displaystyle \sup _{\theta \in \Theta_0} E_{P_{\theta}}[\varphi]\) を検定 \(\varphi\) の大きさ、大きさが \(\alpha\) 以下の検定を有意水準 \(\alpha\) の検定と呼ぶ。有意水準が \(\alpha\) であるような検定全体を \(\Phi (\alpha, \Theta_0)\) と書く:\begin{equation*} \Phi (\alpha, \Theta_0) :=\left\{ \varphi \in \Phi \ \bigg| \ \displaystyle \sup _{\theta\in \Theta_0} E_{P_{\theta}}[\varphi] \le \alpha \right\} .\end{equation*}
  2. 検定 \(\varphi\) に対し \(\beta _{\varphi}(\theta ):= E_{P_{\theta}}[\varphi]\), \(\theta \in \Theta _1\) とする。\(\beta _{\varphi}:\Theta_1\to [0, 1]\) を検出力関数という。

 

\(1-\beta _{\varphi}(\theta )\) は第2種の誤りの大きさになるので、\(\beta _{\varphi}(\theta )\) が大きくなるような検定が望ましい検定となります。最も望ましい検定は任意の \(\theta \in \Theta_1\)、\(\varphi \in \Phi (\alpha, \Theta_0)\) に対して \(\beta _{\varphi _0}(\theta ) \ge \beta _{\varphi}(\theta ) \) を満たす \(\varphi _0\in \Phi (\alpha, \Theta_0)\) です。この \(\varphi _0\) を一様最強力検定と呼び、特に \(\Theta_1\) が1点集合の場合は単に最強力検定と呼びます。

 

最後に検定関数と十分統計量の関係について述べます。

定理 \( (\mathcal{X},\mathcal{B})\) を標本空間、標本空間、\(\varphi :\mathcal{X}\to [0, 1]\) を検定とする。また \( (\mathcal{T},\mathcal{M})\) を可測空間、\(T:\mathcal{X}\to \mathcal{T}\) を十分統計量とする。このとき検定 \(\varphi ^*:\mathcal{X}\to [0, 1]\) で、任意の \(\theta \in \Theta\) に対し\begin{gather*}\varphi ^* = E_{P_{\theta}}[\varphi | T],\ \ P_{\theta}\text{-a.s.},\\ r(\theta, \delta _{\varphi^*}) = r(\theta, \delta _{\varphi}^{*}) = r(\theta, \delta_{\varphi}),\end{gather*}を満たすものが存在する。

証明 \(\varphi^*\) の存在は第9回の定理1の \(\delta^*\) の存在と同様にして示すことが出来る。そして \(P\) に関して殆どいたる所で

\begin{align*} \delta _{\varphi}^{*}(A,\cdot) & = E_{P_{\theta}}[\delta _{\varphi}(A,\cdot)|T] \\ &= E_{P_{\theta}}[\varphi \varepsilon _{\{ 1\}}(A) + (1-\varphi ) \varepsilon _{\{ 0\}}(A)|T] \\ & = E_{P_{\theta}}[\varphi | T] \varepsilon _{\{ 1\}}(A) + (1-E_{P_{\theta}}[\varphi |T]) \varepsilon _{\{ 0\}}(A) \\ & = \varphi ^* \varepsilon _{\{ 1\}}(A) + (1-\varphi ^*) \varepsilon _{\{ 0\}}(A) \\ & = \delta _{\varphi^*}(A, \cdot)\end{align*}であるから\begin{align*} r(\theta, \delta _{\varphi}^{*}) & = r(\theta, \delta _{\varphi ^*}) \\ & = E_{P_{\theta}}\! \left[ \int _{\mathcal{D}} w(\theta, a) \delta _{\varphi^*} (da, \cdot)\right] \\ & = w(\theta, 1) E_{P_{\theta}}[\varphi^*] + w(\theta, 0) E_{P_{\theta}}[1-\varphi^*] \\ & = w(\theta, 1) E_{P_{\theta}}[\varphi] + w(\theta, 0) E_{P_{\theta}}[1-\varphi] \\ & = r(\theta, \delta_{\varphi})\end{align*}が成り立つ。(証明終)

 

次回はp値について議論していきます。

*1:\(H_0\) は検証によって棄却されることが期待されている仮説であることから帰無仮説と呼ばれます。