137

機械学習関連の技術記事を投稿します。137と言えば微細構造定数

【統計学入門(東京大学出版会)】第6章 練習問題 解答

東京大学出版会から出版されている統計学入門(基礎統計学Ⅰ)について第6章の練習問題の解答を書いていきます。

本章以外の解答

本章以外の練習問題の解答は別の記事で公開しています。
必要に応じて参照してください。

6.1

二項分布

二項分布の期待値  E(X) は、


E(X) = np

で与えられます。

一方  E(X^{2}) は、


\begin{align}
E(X^{2}) &= \sum_{x} x^{2} \cdot {}_{n}C_{x} p^{x} (1-p)^{n-x}  \\
&= \sum_{x} ( x ( x - 1 ) + x ) \cdot {}_{n}C_{x} p^{x} (1-p)^{n-x} \\
&= \sum_{x} x ( x - 1 ) \cdot {}_{n}C_{x} p^{x} (1-p)^{n-x} + \sum_{x} x \cdot {}_{n}C_{x} p^{x} (1-p)^{n-x} \\
&= \sum_{x} x ( x - 1 ) \cdot \frac{n(n-1)}{x(x-1)} \cdot p^{2} \cdot {}_{n-2}C_{x-2} p^{x-2} (1-p)^{n-x} + \sum_{x} x \cdot \frac{n}{x} \cdot p \cdot {}_{n-1}C_{x-1} p^{x-1} (1-p)^{n-x} \\
&= np^{2}(n-1) \cdot \sum_{x} \cdot {}_{n-2}C_{x-2} p^{x-2} (1-p)^{n-x} + np \cdot \sum_{x} {}_{n-1}C_{x-1} p^{x-1} (1-p)^{n-x} \\
&= np^{2}(n-1) \cdot 1 + np \cdot 1 \\
&= n^{2}p^{2} + np (1-p)
\end{align}

となるため、分散  V(X) は、


\begin{align}
V(X) &= E(X^{2}) - E(X)^{2} \\
&= n^{2}p^{2} + np (1-p) - (np)^{2} \\
&= np(1-p)
\end{align}

となります。

ポアソン分布

ポアソン分布の期待値  E(X) は、


E(X) = \lambda

で与えられます。

一方  E(X^{2}) は、


\begin{align}
E(X^{2}) &= \sum_{x} x^{2} \cdot e^{- \lambda} \cdot \frac{\lambda^{x}}{x!} \\
&= \sum_{x} ( x ( x - 1 ) + x) \cdot e^{- \lambda} \cdot\frac{\lambda^{x}}{x!} \\
&= \sum_{x} x ( x - 1 ) \cdot e^{- \lambda} \cdot \frac{\lambda^{x}}{x!} + \sum_{x} x \cdot e^{- \lambda} \cdot \frac{\lambda^{x}}{x!} \\
&= \lambda^{2} e^{- \lambda} \cdot \sum_{x} \frac{\lambda^{x 2}}{(x-2)!} + \lambda e^{- \lambda} \cdot \sum_{x} \frac{\lambda^{x-1}}{(x-1)!} \\
&= \lambda^{2} e^{- \lambda} e^{\lambda} + \lambda e^{- \lambda} e^{\lambda} = \lambda^{2} + \lambda
\end{align}

となるため、分散  V(X) は、


\begin{align}
V(X) &= E(X^{2}) - E(X)^{2} \\
&= \lambda^{2} + \lambda - \lambda^{2} \\
&= \lambda
\end{align}

となります。

6.2

ポアソン分布  P_{o}(\lambda) は、次の式で与えられます。


\displaystyle P\_{o}(\lambda) = e^{- \lambda} \cdot \frac{\lambda^{x}}{x!}

4床の空きベッドが確保されているため、ベッドが不足する確率は救急患者数が5人以上である確率を求めればよいことになります。
したがって、


\displaystyle 1- \sum_{x=0}^{4} P\_{o}(2.5) = 1 - \sum_{x=0}^{4} e^{- 2.5} \cdot \frac{2.5^{x}}{x!}

を求めることで答えが得られます。

上記の計算を行うPythonプログラムを次に示します。

from math import exp, pow, factorial

ans = 1.0
for x in range(5):
    ans -= exp(-2.5) * pow(2.5, x) / factorial(x)
print(ans)

上記のプログラムを実行すると、次の結果が得られます。

0.10882198108584873

6.3

負の二項分布とは、 k 回目の成功を得るまでの試行回数  N に関する確率分布 です。 したがって最後の試行が成功となり、それ以外の  N - 1 回の試行では、 k-1 回の成功と  x = N - k 回の失敗となる確率を求めればよいことになります。

成功の確率を  p 失敗の確率を  q とすると、確率分布  f(x) は、


\begin{align}
f(x) &= p \cdot {}_{N-1}C_{x} p^{k-1} q^{x} \\
&= {}_{x+k-1}C_{x}p^{k} q^{x}
\end{align}

以上により、負の二項分布を導出できました。

6.4

i)

 n 個のコインのうち、1個のコインが表になり  n-1 個のコインが裏になる確率と、 n-1 個のコインが表になり1個のコインが裏になる確率の和が  P になります。

したがって、


\begin{align}
P &= {}_{n}C_{1} p q^{n-1} + {}_{n}C_{1} p^{n-1} q \\
& = n(pq^{n-1} + p^{n-1}q)
\end{align}

ii)

繰り返し数を  x とすると、 x 回目でi)を満たす確率  Q は、


Q = P(1-P)^{x-1}

となるため、 x の期待値  E(X) は、


\begin{align}
E(X) &= \sum_{x} x \cdot Q \\
&= \sum_{x} x \cdot P(1-P)^{x-1}
\end{align}

から求めることができます。

ここで  x が非常に大きい(=無限大)のときは、


\begin{align}
\sum_{x} x p q^{x-1} &= \sum_{x} ( x + 1 ) p q^{x} \\
&= \sum_{x} x p q^{x} + \sum_{x} p q^{x} \\
&= q \cdot \sum_{x} x p q^{x-1} + 1
\end{align}

が成り立つため、


(1-q) \cdot \sum_{x} x p q^{x-1} = 1

の関係式が得られます。

この関係式を利用すると、


\begin{align}
E(X) &= \sum_{x} x \cdot P(1-P)^{x-1} \\
&= \frac{1}{1-(1-P)} \\
&= \frac{1}{P} \\
&= \frac{1}{n(pq^{n-1} + p^{n-1}q)}
\end{align}

が得られます。

6.5

定数  c


\begin{equation}
f(x)
  \begin{cases}
    \displaystyle c(1-x^{2}) & (-1 \le x \le 1) \\
    0 & (x \lt -1, 1 \lt x)
  \end{cases}
\end{equation}

確率密度関数となるためには、


\displaystyle \int_{-\infty}^{\infty} f(x) dx = 1

を満たせばよいことになります。 したがって、


\begin{align}
\int_{-\infty}^{\infty} f(x) dx &= \int_{-1}^{1} c (1 - x^{2}) dx \\
&= \frac{4}{3} c \\
&= 1
\end{align}

より(偶関数の性質を利用)、 c = \frac{3}{4} が求まります。

以降の計算では、この  c の値を利用して期待値などの値を求めます。 すなわち、


\begin{equation}
f(x)
  \begin{cases}
    \displaystyle \frac{3}{4}(1-x^{2}) & (-1 \le x \le 1) \\
    0 & (x \lt -1, 1 \lt x)
  \end{cases}
\end{equation}

です。

期待値

 f(x) の期待値  E(X) は、


\begin{align}
E(X) &= \int_{-\infty}^{\infty} x \cdot f(x) dx \\
&= \int_{-1}^{1} \frac{3}{4} x (1 - x^{2}) dx \\
& = 0
\end{align}

となります(奇関数の性質を利用)。

分散


\begin{align}
E(X^{2}) &= \int_{-\infty}^{\infty} x^{2} \cdot f(x) dx \\
&= \int_{-1}^{1} \frac{3}{4} x^{2} (1 - x^{2}) dx \\
&= 2 \cdot \int_{0}^{1} \frac{3}{4} x^{2} (1 - x^{2}) dx \\
& = \frac{1}{5}
\end{align}

となるため、分散  V(X)


\begin{align}
V(X) &= E(X^{2}) - E(X)^{2} \\
&= \frac{1}{5}
\end{align}

が得られます。

歪度

 \mu = E(X) = 0 \sigma = \sqrt{V(X)} = \frac{1}{\sqrt{5}} と、


\begin{align}
E(X^{3}) &= \int_{-\infty}^{\infty} x^{3} \cdot f(x) dx \\
&= \int_{-1}^{1} \frac{3}{4} x^{3} (1 - x^{2}) dx \\
& = 0
\end{align}

より、歪度  \alpha_{3} は、


\begin{align}
\alpha_{3} &= \frac{E(X^{3}) - 3 \mu E(X^{2}) + 2 \mu^{3}}{\sigma^{3}} \\
&= 0
\end{align}

となります。

尖度


\begin{align}
E(X^{4}) &= \int_{-\infty}^{\infty} x^{4} \cdot f(x) dx \\
&= \int_{-1}^{1} \frac{3}{4} x^{4} (1 - x^{2}) dx \\
&= 2 \cdot \int_{0}^{1} \frac{3}{4} x^{4} (1 - x^{2}) dx \\
& = \frac{3}{35}
\end{align}

より、尖度  \alpha_{4} - 3 は、


\begin{align}
\alpha_{4} - 3 &= \frac{E(X^{4}) - 4 \mu E(X^{2}) + 6 \mu^{2} E(X^{2}) - 3 \mu^{4}}{\sigma^{4}} \\
&= \frac{\frac{3}{35}}{\frac{1}{\sqrt{5}^{4}}} -3 \\
&= \frac{6}{7}
\end{align}

となります。

6.6

i)

指数分布の確率密度関数  f(x) は、次の式で与えられます( \lambda は正の値)。


\begin{equation}
f(x)
  \begin{cases}
    \lambda e^{- \lambda x} & (x \ge 0) \\
    0 & (x \lt 0)
  \end{cases}
\end{equation}

これを用いて、


\begin{align}
P(X \gt a + b | X \gt a) &= \frac{P(X \gt a + b \land X > a)}{P(X \gt a)} \\
&= \frac{P(X \gt a + b)}{P(X \gt a)} \\
&= \frac{\int_{a+b}^{\infty} f(x) dx}{\int_{a}^{\infty} f(x) dx} \\
&= \frac{\int_{a+b}^{\infty} \lambda e^{- \lambda x} dx}{\int_{a}^{\infty} \lambda e^{- \lambda x} dx} \\
&= \frac{e^{- \lambda (a+b)}}{e^{-\lambda a}} \\
&= e^{-\lambda b} \\
&= P(X \gt b)
\end{align}

となります。

 P(X \gt a + b | X \gt a) は、過去に  a だけの時間が過ぎた状態という前提条件をもとにして、 b だけ時間を進めたときの確率を示しています。 一方で  P(X \gt b) は、いかなる前提条件をもとにせず、 b だけ時間を進めたときの確率を示しています。 これらが同じ確率になっているということは、過去の時間経過がその後の確率に影響を与えていない、ということを示していると言えます。

ii)

積分布関数  F(x) は、


\begin{align}
F(x) &= \int_{-\infty}^{x} f(x) dx \\
&= \int_{0}^{x} \lambda e^{-\lambda x} dx \\
&= 1 - e^{- \lambda x}
\end{align}

となるため、


\begin{align}
\lambda (x) &= \frac{f(x)}{1-F(x)} \\
&= \frac{\lambda e^{- \lambda x}}{1 - (1 - e^{- \lambda x})} \\
&= \lambda
\end{align}

が得られます。

6.7

付表の正規分布表を利用します。

付表は上側の確率の値を示しているため、 P(|Z| \gt c) の場合は、表の値の1/2となる値を見る必要があることに注意が必要です。 例えば、 P(|Z| \gt c) = 0.01 の場合は、0.005に対応する  c の値を参照するといった具合です。

また本来は、内挿を考慮して値を求める必要がありますが、簡単のため2点間で近い方の値を  c の値として採用しています。

 P(|Z| \gt c)  c
0.01 2.58
0.02 2.32
0.05 1.96
0.10 1.65

および

 P(Z \gt c)  c
0.01 2.32
0.02 2.05
0.05 1.65
0.10 1.28

が得られます。

6.8

ベータ分布の確率密度関数  f(x) は、


\begin{equation}
f(x)
  \begin{cases}
    \frac{x^{\alpha -1} (1 - x)^{\beta -1}}{B(\alpha, \beta)} & (0 \ge x \ge 1) \\
    0 & (x \lt 0, 1 \lt x)
  \end{cases}
\end{equation}

かつ凹関数であることから、 f(x)微分して0となる  x の値がモード(最頻)となります。

したがって、


\begin{align}
\frac{df(x)}{dx} &= \frac{1}{B(\alpha, \beta)} \left( (\alpha - 1) x^{\alpha - 2} (1 - x)^{\beta - 1} - (\beta - 1) x^{\alpha - 1} (1 - x)^{\beta - 2} \right) \\
&= 0
\end{align}

を満たす  x を求めればよいことになります。 B(\alpha, \beta) x に依存しないことに注意して計算すると、


\displaystyle x = \frac{\alpha - 1}{\alpha + \beta - 2}

が得られます。

なお、 \alpha = \beta = 1 のときはベータ分布が一様分布になることから、モードは  0 \lt x \lt 1 の範囲で任意の値を取れる点に注意してください。

6.9

ワイブル分布の密度関数  f(x) を次に示します。


\begin{equation}
f(x)
  \begin{cases}
    \displaystyle \frac{bx^{b-1}}{a^{b}} \exp \left( -  \left( \frac{x}{a} \right)^{b} \right) & (x \gt 0) \\
    0 & (x \lt 0)
  \end{cases}
\end{equation}

積分布関数  P(X \le x) は、


\begin{align}
P(X \le x) &= \int_{-\infty}^{x} f(y) dy \\
&= \int_{0}^{x} \frac{by^{b-1}}{a^{b}} \exp \left( -  \left( \frac{y}{a} \right)^{b} \right) dy \\
&= \frac{b}{a^{b}} \left[ - \frac{a^{b}}{b} \exp \left( - \frac{y^{b}}{a^{b}} \right) \right]_{y=0}^{y=x} \\
&= 1 - \exp \left( - \left( \frac{x}{a} \right)^{b} \right)
\end{align}

と求まります。 ここで求めた累積分布関数は、 x \ge 0 を満たす場合に限定しています。  x \lt 0 の場合は  f(x) = 0 となるので、累積分布関数も0になります。

6.10

標準正規分布

標準正規分布確率密度関数  f(x) は、次の式で与えられます。


\displaystyle f(x) = \frac{1}{\sqrt{2\pi}} \exp \left( - \frac{x^{2}}{2} \right)

したがってモーメント母関数  M_{x}(t) は、変数変換  x - t \equiv yガウス積分の公式を使って求めることができます。


\begin{align}
M_{x}(t) &= \int_{-\infty}^{\infty} e^{tx} f(x) dx \\
&= \int_{-\infty}^{\infty} e^{tx} \cdot \frac{1}{\sqrt{2\pi}} \exp \left( - \frac{x^{2}}{2} \right) dx \\
&= \frac{1}{\sqrt{2\pi}} \exp \left( \frac{t^{2}}{2} \right) \int_{- \infty}^{\infty} \exp \left( - \frac{1}{2} (x - t)^{2} \right) dx \\
&= \frac{1}{\sqrt{2\pi}} \exp \left( \frac{t^{2}}{2} \right) \int_{- \infty}^{\infty} \exp \left( - \frac{y^{2}}{2} \right) dy \\
&= \frac{1}{\sqrt{2\pi}} \exp \left( \frac{t^{2}}{2} \right) \sqrt{\frac{\pi}{\frac{1}{2}}} \\
&= \exp \left( \frac{t^{2}}{2} \right)
\end{align}

ここでマクローリン展開すると、


\begin{align}
M_{x}(t) &= \exp \left( \frac{t^{2}}{2} \right) \\
&\equiv  e^{y} \\
&= \sum_{n=0}^{\infty} \frac{(y - 0)^{n}}{n!} \frac{d^{n}}{dy^{n}} e^{y} |_{y=0} \\
&= \sum_{n=0}^{\infty} \frac{y^{n}}{n!} \\
&= 1 + y + \frac{y^{2}}{2!} + \frac{y^{3}}{3!} + ... \\
&= 1 + \frac{1}{2}t^{2} + \frac{1}{8}t^{4} + ...
\end{align}

となります。

一方、モーメント母関数  M_{x}(t) は、


\displaystyle M_{x}(t) = 1 + t \cdot E(X) + \frac{t^{2}}{2!} \cdot E(X^{2}) + \frac{t^{3}}{3!} \cdot E(X^{3}) + \frac{t^{4}}{4!} \cdot E(X^{4}) + ...

という性質があるため、


E(X) = \mu = 0

E(X^{2}) = 1

E(X^{3}) = 0

E(X^{4}) = 3

V(X) = \sigma^{2} = E(X^{2}) - E(X)^{2} = 1

が得られます。

よって尖度  \alpha_{4} - 3 は、


\begin{align}
\alpha_{4} - 3 &= \frac{E(X^{4}) - 4 \mu E(X^{3}) + 6 \mu^{2} E(X^{2}) - 3 \mu^{4}}{\sigma^{4}} - 3 \\
&= \frac{3}{1} - 3 \\
&= 0
\end{align}

となります。

指数分布

指数分布の確率密度関数  f(x) は、次の式で与えられます。


\begin{equation}
f(x)
  \begin{cases}
    \displaystyle \lambda e^{- \lambda x} & (x \ge 0) \\
    0 & (x \lt 0)
  \end{cases}
\end{equation}

したがってモーメント母関数  M_{x}(t) は、次のようになります。 なお、 \lambda > t とします。


\begin{align}
M_{x}(t) &= \int_{-\infty}^{\infty} e^{tx} f(x) dx \\
&= \int_{0}^{\infty} e^{tx} \cdot \lambda e^{- \lambda x} dx \\
&= \frac{\lambda}{\lambda -t}
\end{align}

ここでマクローリン展開すると、


\begin{align}
M_{x}(t) &= \frac{\lambda}{\lambda -t} \\
&= \sum_{n=0}^{\infty} \frac{(t - 0)^{n}}{n!} \frac{d^{n}}{dt^{n}} \frac{\lambda}{\lambda -t} |_{t=0} \\
&= 1 + \frac{1}{\lambda}t + \frac{1}{\lambda^{2}}t^{2} + \frac{1}{\lambda^{3}}t^{3} + \frac{1}{\lambda^{4}}t^{4} + ...
\end{align}

となります。

したがって、


\displaystyle E(X) = \mu = \frac{1}{\lambda}

\displaystyle E(X^{2}) = \frac{2!}{\lambda}

\displaystyle E(X^{3}) = \frac{3!}{\lambda}

\displaystyle E(X^{4}) = \frac{4!}{\lambda}

\displaystyle V(X) = \sigma^{2} = E(X^{2}) - E(X)^{2} = \frac{1}{\lambda^{2}}

が得られます。

よって尖度  \alpha_{4} - 3 は、


\begin{align}
\alpha_{4} - 3 &= \frac{E(X^{4}) - 4 \mu E(X^{3}) + 6 \mu^{2} E(X^{2}) - 3 \mu^{4}}{\sigma^{4}} - 3 \\
&= 9 - 3 \\
&= 6
\end{align}

となります。