数学、ときどき統計、ところによりIT

理論と実践の狭間で漂流する数学趣味人の記録

数理統計学 10 統計的仮説検定

仮説の採否を観測値に照らして判断する手法である統計的仮説検定(または単に検定)について、統計的決定理論の枠組みの中で定式化していきます。

まず基本的な方針として仮説の採否は、正しいと思われる方を積極的に支持するのではなく、間違いである可能性が高い方を避ける、という消極的な選択を行います。つまり観測値に応じて仮説を棄却する、または棄却せずに受容するという2者択一の判断をします。そこで検定に関わる決定空間、決定関数を以下の様に定めます。 

定義1  (\mathcal{X},\mathcal{B}) を標本空間とする。

  1. 可測写像 \varphi : \mathcal{X}\to [0, 1] を検定関数、または単に検定と呼ぶ。
  2. 決定空間を \mathcal{D} :=\{0, 1\}\mathcal{A} :=\{ \phi, \{ 0\} ,\{ 1\} ,\{ 0, 1\} \} とし 検定 \varphi による決定関数を\begin{equation*}\delta _{\varphi} (A,x):=\varphi (x)\varepsilon _{\{1\}}(A) + (1- \varphi(x))\varepsilon _{\{0\}}(A),\ \ A\in \mathcal{A},\ x\in \mathcal{X}\end{equation*}で定義する。ただし \varepsilon _{\{a\}} a におけるデルタ測度とする。また 1\in \mathcal{D} は仮説 H_0 を棄却することを表す。従って観測値が x\in \mathcal{X} であるとき確率 \varphi (x) で仮説 H_0 を棄却する。
  3. 検定 \varphi\varphi (\mathcal{X})\subset \{0, 1\} を満たすとき \delta _{\varphi} は非確率的となるから \varphi を非確率化検定と呼ぶ。非確率的でないとき \varphi を確率化検定と呼ぶ。
  4. \mathcal{X} から [0, 1] への可測写像全体の(部分)集合を \Phi とする。\Phi に基づき行われる意思決定全体を \Delta _{\Phi} := \{ \delta _{\varphi} \ | \ \varphi \in \Phi\} とする。

 

次に検証するべき仮説ですが、観測値が従う分布 \{P_{\theta}\}_{\theta \in \Theta}に関する仮説が最も基本的です。つまり \Theta_0 および \Theta_1 は   \Theta=\Theta_0\cup \Theta_1 かつ \Theta_0\cap \Theta_1=\emptyset を満たすとし、観測値が P_{\theta}   ( \theta \in \Theta_0 ) に従う、という仮説を H_0 、それと対立する仮説を H_1 とします。*1

これらの仮説を定義1で定める決定関数に従って棄却または受容する訳ですが、定義1によって決まる検定関数(つまり決定関数)は無数に存在します。当然、その場の思いつきで検定関数を選択してしまうと、誤った仮説を選択してしまう可能性が高くなります。そこで、そうした可能性を出来る限り小さくするために、検定関数毎にリスクを定量化し、検定関数の適切さの指標とします。

選択の誤りには次の2種類が存在します。仮説 H_0 が正しいのに棄却してしまう第1種の誤りと、仮説 H_0 が誤りであるのに受容してしまう第2種の誤りです。そこでこの誤りに関する損失関数を a\in \mathcal{D} に対して\begin{equation*} w(\theta ,a):=\begin{cases}1_{\{1\} }(a), & \theta \in \Theta_0 \\ 1_{\{0\} }(a), & \theta \in \Theta_1 \end{cases}\end{equation*}と定義します。このとき w に関するリスク関数 r は\begin{equation*} r(\theta,\delta _{\varphi}):=E_{P_{\theta}}\! \left[ \int _{\mathcal{D}} w(\theta, a) \delta _{\varphi}(da,\cdot )\right] =\begin{cases}E_{P_{\theta}}[\varphi ], & \theta \in \Theta_0 \\ 1-E_{P_{\theta}}[\varphi ], & \theta \in \Theta_1 \end{cases}\end{equation*}となります。このリスク関数は検定 \varphi における第1種および第2種の平均的な損失の大きさ(リスク)を表しています。

さて第1種の誤りと第2種の誤りのリスクには、一方が減少すれば他方は増加する傾向が見られます。実際、\varphi\varphi ' \varphi \lt \varphi ' を満たす検定とすると \theta \in \Theta_0 に対しては  r(\theta ,\delta_{\varphi})\le r(\theta ,\delta_{\varphi '}) であるにも関わらず \theta \in \Theta_1 に対しては  r(\theta ,\delta_{\varphi})\ge r(\theta ,\delta_{\varphi '}) となってしまいます。

そこで第1種の誤りをある程度許容した上で、より問題となる第2種の誤りのリスクを低減していくことを考えます。

定義2 

  1. \displaystyle \sup _{\theta \in \Theta_0} E_{P_{\theta}}[\varphi] を検定 \varphi の大きさ、大きさが \alpha 以下の検定を有意水準 \alpha の検定と呼ぶ。有意水準\alpha であるような検定全体を \Phi (\alpha, \Theta_0) と書く:\begin{equation*} \Phi (\alpha, \Theta_0) :=\left\{ \varphi \in \Phi \ \bigg| \ \displaystyle \sup _{\theta\in \Theta_0} E_{P_{\theta}}[\varphi] \le \alpha \right\} .\end{equation*}
  2. 検定 \varphi に対し \beta _{\varphi}(\theta ):= E_{P_{\theta}}[\varphi] , \theta \in \Theta _1 とする。\beta _{\varphi}:\Theta_1\to [0, 1] を検出力関数という。

 

1-\beta _{\varphi}(\theta ) は第2種の誤りの大きさになるので、\beta _{\varphi}(\theta ) が大きくなるような検定が望ましい検定となります。最も望ましい検定は任意の \theta \in \Theta_1\varphi \in \Phi (\alpha, \Theta_0) に対して \beta _{\varphi _0}(\theta ) \ge \beta _{\varphi}(\theta ) を満たす \varphi _0\in \Phi (\alpha, \Theta_0) です。この \varphi _0一様最強力検定と呼び、特に \Theta_1 が1点集合の場合は単に最強力検定と呼びます。

 

最後に検定関数と十分統計量の関係について述べます。

定理  (\mathcal{X},\mathcal{B}) を標本空間、\varphi :\mathcal{X}\to [0, 1] を検定とする。また  (\mathcal{T},\mathcal{M}) を可測空間、T:\mathcal{X}\to \mathcal{T} を十分統計量とする。このとき検定 \varphi ^*:\mathcal{X}\to [0, 1] で、任意の \theta \in \Theta に対し\begin{gather*}\varphi ^* = E_{P_{\theta}}[\varphi | T],\ \ P_{\theta}\text{-a.s.},\\ r(\theta, \delta _{\varphi^*}) = r(\theta, \delta _{\varphi}^{*}) = r(\theta, \delta_{\varphi}),\end{gather*}を満たすものが存在する。

証明 \varphi^* の存在は第9回の定理1の \delta^* の存在と同様にして示すことが出来る。そして P に関して殆どいたる所で

\begin{align*} \delta _{\varphi}^{*}(A,\cdot) & = E_{P_{\theta}}[\delta _{\varphi}(A,\cdot)|T] \\ &= E_{P_{\theta}}[\varphi \varepsilon _{\{ 1\}}(A) + (1-\varphi ) \varepsilon _{\{ 0\}}(A)|T] \\ & = E_{P_{\theta}}[\varphi | T] \varepsilon _{\{ 1\}}(A) + (1-E_{P_{\theta}}[\varphi |T]) \varepsilon _{\{ 0\}}(A) \\ & = \varphi ^* \varepsilon _{\{ 1\}}(A) + (1-\varphi ^*) \varepsilon _{\{ 0\}}(A) \\ & = \delta _{\varphi^*}(A, \cdot)\end{align*}であるから\begin{align*} r(\theta, \delta _{\varphi}^{*}) & = r(\theta, \delta _{\varphi ^*}) \\ & = E_{P_{\theta}}\! \left[ \int _{\mathcal{D}} w(\theta, a) \delta _{\varphi^*} (da, \cdot)\right] \\ & = w(\theta, 1) E_{P_{\theta}}[\varphi^*] + w(\theta, 0) E_{P_{\theta}}[1-\varphi^*] \\ & = w(\theta, 1) E_{P_{\theta}}[\varphi] + w(\theta, 0) E_{P_{\theta}}[1-\varphi] \\ & = r(\theta, \delta_{\varphi})\end{align*}が成り立つ。(証明終)

 

次回はp値について議論していきます。

*1:H_0 は検証によって棄却されることが期待されている仮説であることから帰無仮説と呼ばれます。