PR

ベイズの定理をわかりやすく簡潔に

統計学
記事内に広告が含まれています。

ベイズの定理とは,条件付き確率に関する等式

P(A\mid B) = \frac{P(B\mid A) P(A)}{P(B)}


を指します。これについて,その証明と,意義も含めた応用例を紹介しましょう。

ベイズの定理とその証明

B が起こったもとで A が起こるという「条件付き確率」は,

P(A\mid B) = \frac{P(A\cap B)}{P(B)}


と定義されましたね。 P_B(A) とかくこともあると思います。これに関する等式が,ベイズの定理です。

定理(ベイズの定理;Bayes’ theorem)

A,B を事象とし, P(B)>0 とする。このとき,条件付き確率について

\color{red}P(A\mid B) = \frac{P(B\mid A) P(A)}{P(B)}


である。

先に証明をチェックしましょう。

証明

条件付き確率の定義より,

\!\!\! P(A\mid B)P(B)=P(A\cap B) = P(B\mid A)P(A)


であり,両端辺 P(B) で割ると結論を得る。

証明終

証明をみればわかるように「ベイズの定理」自体は非常に簡単な話を仰々しく言ったに過ぎません。しかし,この定理は非常に有用です。紹介しましょう。

ベイズの定理の有用性

ベイズの定理の式


ベイズの定理において,左辺には条件付き確率 P(A\mid B) 右辺には P(B\mid A) がありますから,この等式は, P(A\mid B) を, P(B\mid A) を用いて求めようという形になっていますね。

P(A\mid B) よりも P(B\mid A) の方が考えるのが簡単だったとしましょう。たとえば,引いたくじを戻さないくじ引きにおいて,

A:一人目が当たる事象
B : 二人目が当たる事象

とします。このとき,

P(A\mid B) :二人目が当たったとき,一人目も当たった確率
P(B\mid A):一人目が当たったとき,二人目も当たる確率

となって, P(A\mid B) よりも P(B\mid A) の方が考えやすいですね。このような例のように,時系列が A\to B のときは, P(A\mid B) より P(B\mid A) の方が考えやすいことが多いです。前者は時系列が逆転していて,後者はそのままですから,何となく理解できるでしょう。
このようなときは,ベイズの定理が使えるというわけです。

2つの条件付き確率において,どちらが考えやすいか考えた図

実際,5本中2本があたりのくじ引きなら,くじの原則により, P(A)=P(B)=2/5 で,さらに P(B\mid A)= 1/4 ですから,

P(A\mid B)=\frac{1/4\times 2/5}{2/5}=\frac{1}{4}


と,ベイズの定理を使って求められますね。

ベイズの定理は,病気の判定にも用いられています。たとえば,

A:病気を実際に患っている事象
B : 検査で陽性になる事象

としましょう。このとき,

P(A\mid B) :検査で陽性のとき,実際に病気である確率
P(B\mid A):実際に病気のとき,検査で陽性になる確率

となります。患者が知りたいのは P(A\mid B) ですが,病気の検査キッドの精度指標としては, P(B\mid A) が計算しやすいですから,このような場合も,ベイズの定理が使えるというわけです。

他にも,「迷惑メール」の検知にも用いられています。実際に知りたいのは,「ある特徴があるメールが迷惑メールかどうか」ですが,統計的にわかりやすいのは,「迷惑メールにはどういう特徴があるか」の方だからです。

ベイズの定理からベイズ統計学へ

本定理を道具として用いつつ,統計学を展開するのに,ベイズ統計学 (Bayesian statistics) というのがあります。

これはざっくりいうと,A の確率 P(A) をできるだけ正確に推定したいときに,とりあえず P(A) を適当に仮定し,そこから周辺情報 B を手掛かりにして,計算しやすい P(B\mid A) を考えることで, P(A\mid B) を求め,これにより,「 A の確率の正確性が上がった」と思う統計学です。

たとえば,事件において,犯人が〇〇である確率を適当に推察し,そこから状況証拠をもとに,〇〇が犯人である確率をアップデートしていくような感じです。

ちょっと意味不明かもしれませんが,詳しくは別の機会で解説しましょう。