Числовые характеристики зависимости
Примеры
Пример 67.
Если и
суть координаты точки, брошенной
наудачу в треугольник
с вершинами
,
и
,
то их коэффициент корреляции
отрицателен.
Это можно объяснить так: чем больше
, тем
меньше у
возможностей быть большой.
Полезно убедиться в этом, проверив справедливость следующих высказываний. Во-первых,
![f_\xi(x)=\begin{cases}
1-\frac{x}{2}, & 0\le x\le 2, \\
0, & \text{ иначе};
\end{cases} \quad
f_\eta(y)=\begin{cases}
2-2y, & 0\le y\le 1, \\
0, & \text{ иначе }
\end{cases}](/sites/default/files/tex_cache/7066e12b4327a533c047b2d052ea2beb.png)
![{\mathsf E\,}\xi=2/3](/sites/default/files/tex_cache/b66bc524ecaf82e569ce748c657df12c.png)
![{\mathsf E\,}\eta=1/3](/sites/default/files/tex_cache/960dced524fd15d8deba3bf0176b646e.png)
Во-вторых, по определению многомерного равномерного распределения в
области ,
![{\mathsf E\,}(\xi\,\eta)=\mathop{\int\int}\limits_{\!\!D}
x\cdot y \cdot 1\,\,dx\,dy=
\int\limits_0^2\;\smash{\int\limits_{0}^{\,1{-}x/2}}
x\,y \;dy\,\;dx=\frac16.](/sites/default/files/tex_cache/f457ad13c75ca4357b4765cd0f6691f9.png)
Пример 68.
Найдем коэффициент корреляции между числом выпадений единицы и числом
выпадений шестерки при подбрасываниях правильной игральной
кости.
Обозначим для через
случайную величину,
равную числу выпадений грани с
очками при
подбрасываниях
кубика.
Посчитаем
.
Каждая из случайных величин
имеет биномиальное
распределение с параметрами
и
,
поэтому
.
Далее заметим, что .
Из-за симметрии кубика математические
ожидания
,
,
одинаковы, но отличаются от
.
Посчитаем
.
С одной стороны, это число равно
![{\mathsf E\,}\xi_1(\xi_1+\ldots+\xi_6)={\mathsf E\,}\xi_1\cdot n =
\frac{n^2}{6}.](/sites/default/files/tex_cache/8bc19025198b98f3b5d3cb5eb40cf4e1.png)
![{\mathsf E\,}\xi_1(\xi_1+\ldots+\xi_6)={\mathsf E\,}\xi_1^2+5{\mathsf E\,}\xi_1\xi_6
=\frac{5n}{36}+\frac{n^2}{36} + 5{\mathsf E\,}\xi_1\xi_6.](/sites/default/files/tex_cache/d89a73690565f6b7b2dc63de0d1df144.png)
![5{\mathsf E\,}\xi_1\xi_6=\frac{n^2}{6}-\frac{5n}{36}-\frac{n^2}{36}](/sites/default/files/tex_cache/489d0913642cda1dd77813d2915e9990.png)
![{\mathsf E\,}\xi_1\xi_6=\frac{n^2-n}{36}](/sites/default/files/tex_cache/6726841d85c5825625359adeb71f6fb8.png)
![\rho(\xi_1,\, \xi_6)=
\frac{{\mathsf E\,}\xi_1\xi_6-{\mathsf E\,}\xi_1{\mathsf E\,}\xi_6}{\sqrt{\vphantom{a^2}{\mathsf D\,}\xi_1{\mathsf D\,}\xi_6}}
=\frac{(n^2-n)/36-n^2/36}{5n/36}=-\frac15.](/sites/default/files/tex_cache/f6d7f965a3d4cd0aecdbfed5709de082.png)
![n](/sites/default/files/tex_cache/7b8b965ad4bca0e41ab51de7b31363a1.png)
Пример 69. Вычислим математическое ожидание и дисперсию гипергеометрического распределения. Мы не могли сделать это раньше, так как очень не хотели вычислять следующие суммы:
![{\mathsf E\,}\xi=\sum\limits_k k\,\frac{C_K^k C_{N-K}^{n-k}}{C_N^n},
\qquad
{\mathsf E\,}\xi^2=\sum\limits_k k^2\,\frac{C_K^k C_{N-K}^{n-k}}{C_N^n},](/sites/default/files/tex_cache/02a521a3c7566b9d7a45a6a15fa67e90.png)
![k](/sites/default/files/tex_cache/8ce4b16b22b58894aa86c421e8759df3.png)
![{0\le k\le K}](/sites/default/files/tex_cache/3e0ffa2f0ad046238c9fdd39e3f75db7.png)
![0\le
n-k\le N-K](/sites/default/files/tex_cache/bc779721fb7bc2090042eab99e58d3c7.png)
Рассмотрим урну, содержащую белых шаров и
не белых, и пусть
из нее наудачу и без возвращения выбирают по одному
шаров.
Свяжем случайную величину
, равную числу белых шаров среди
выбранных,
с результатами отдельных извлечений шаров.
Обозначим через , где
,
"индикатор" того,
что
-й по счету вынутый шар оказался белым:
, если при
-м извлечении появился белый
шар, иначе
.
Тогда
- число появившихся белых шаров,
и математическое
ожидание считается просто:
![{\mathsf E\,}
\xi={\mathsf E\,}(\xi_1+\ldots+\xi_n)={\mathsf E\,}\xi_1+\ldots+{\mathsf E\,}\xi_n.](/sites/default/files/tex_cache/47b4396fb85f893ba5ccaf3f65c9db65.png)
Убедимся, что случайные величины имеют
одно и то же
распределение Бернулли
, где
.
Пронумеруем шары: белые - номерами от одного до ,
остальные - номерами от
до
.
Элементарным исходом опыта является набор из
номеров шаров в
схеме
выбора
элементов из
без возвращения и с учетом
порядка.
Общее число исходов равно
.
Вычислим вероятность события . Событие
включает в себя
элементарные исходы (наборы), в которых на
-м месте стоит любой
из
номеров белых шаров, а остальные
место занимают любые из
оставшихся
номеров. По теореме 1
о перемножении шансов число благоприятных
событию
исходов есть произведение
и
.
Здесь
есть число способов поставить
на
-е место один из номеров белых шаров,
- число способов после этого
разместить на оставшихся
местах остальные
номеров
шаров. Но тогда
![p=\Prob(\xi_i=1)=\Prob(A_i)=\frac{|A_i|}{|\mspace{4mu}\Omega\mspace{4mu}|}=\frac{K C_{N-1}^{n-1}}{C_N^n}}=\frac{K}{N}\,](/sites/default/files/tex_cache/59699441e66cc6bd38e285976f6fe8b9.png)
Вернемся к математическому ожиданию:
![{\mathsf E\,}
\xi={\mathsf E\,}\xi_1+\ldots+{\mathsf E\,}\xi_n=n{\mathsf E\,}\xi_1=np=\frac{nK}{N}\,.](/sites/default/files/tex_cache/4156d1cf0323382972931169263a6d55.png)
Вычислим дисперсию .
До сих пор мы не интересовались совместным распределением
:
для вычисления математического ожидания их суммы нам было достаточно знания
маргинальных распределений этих величин. Но дисперсия суммы уже не всегда
равна сумме дисперсий. Зависимость величин
очевидна:
если, скажем, случилось событие
, то вероятность
второму шару быть
белым уже не равна отношению
:
![\Prob(\xi_2=1\,\cond
\,\xi_1=1)=\frac{K\mspace{1mu}{-}\mspace{1mu}1}{N\mspace{1mu}{-}\mspace{1mu}1} \neq \frac{K}{N}=\Prob(\xi_2=1).](/sites/default/files/tex_cache/d06028253329f31c709255116b9ba9a4.png)
![\xi_i](/sites/default/files/tex_cache/9ea888f58114108ed02fea555f01fe8c.png)
![\xi_j](/sites/default/files/tex_cache/60184cfc90edd5d8bd0793cc3a9900e6.png)
![i\ne
j](/sites/default/files/tex_cache/a41869fdafa83e2764955c030b757ef0.png)
![{\mathsf E\,}(\xi_i\xi_j)](/sites/default/files/tex_cache/a72e327a5edf775fedef3878e9891288.png)
![\xi_i\xi_j](/sites/default/files/tex_cache/ab6cde92d6482c27ab2028526a4be7ac.png)
![{\xi_i\xi_j=1,}](/sites/default/files/tex_cache/68b71bc3b0a984287176b5b233191a78.png)
![i\mspace{-2mu}](/sites/default/files/tex_cache/82a41c13a1b00cfd16deebde8f690380.png)
![j\mspace{-1mu}](/sites/default/files/tex_cache/1f8a8ce8d01ed21f6c39c282b5e0cdd7.png)
![\Prob(\xi_i\xi_j=1)=\Prob(A_i\cap A_j)=
\frac{|A_i\cap
A_j|}{|\,\Omega\,|}=\frac{K(K-1)C_{N-2}^{n-2}}{C_N^n}}
=\frac{K(K\mspace{1mu}{-}\mspace{1mu}1)}{N(N\mspace{1mu}{-}\mspace{1mu}1)}.](/sites/default/files/tex_cache/ff8f3df40e62b75b53c905d1fca1eb2c.png)
![{{\rm cov}}(\xi_i,\,\xi_j)={\mathsf E\,}(\xi_i\xi_j)-{\mathsf E\,}\xi_i{\mathsf E\,}\xi_j=
\frac{K(K\mspace{1mu}{-}\mspace{1mu}1)}{N(N\mspace{1mu}{-}\mspace{1mu}1)}-
\frac{K}{N}\,\frac{K}{N}=-\frac{K(N\mspace{1mu}{-}\mspace{1mu}K)}{N^{2\mathstrut}(N\mspace{1mu}{-}\mspace{1mu}1)}.](/sites/default/files/tex_cache/fdde0111abb37c1d8842ade053e49500.png)
![{\mathsf D\,}\xi_i=p(1-p)](/sites/default/files/tex_cache/060bd4cf7a2d9d758ac192d604a48d24.png)
![i](/sites/default/files/tex_cache/865c0c0b4ab0e063e5caa3387c1a8741.png)
![j](/sites/default/files/tex_cache/363b122c528f54df4a0446b6bab05515.png)
![{\mathsf D\,}\xi &=&{\mathsf D\,}(\xi_1+\ldots+\xi_n)=
\sum\limits_{i=1}^n{\mathsf D\,}\xi_i + \sum\limits_{i\ne j}{{\rm cov}}(\xi_i,\xi_j)= \\
&=&np(1-p)+n(n-1){{\rm cov}}(\xi_1,\,\xi_2)=\\[2mm]
&=&n\,\frac{K}{N}\Bigl(1-\frac{K}{N}\Bigr)-
n(n\mspace{1mu}{-}\mspace{1mu}1)\frac{K(N\mspace{1mu}{-}\mspace{1mu}K)}{N^{2\mathstrut}(N\mspace{1mu}{-}\mspace{1mu}1)}
=n\,\frac{K}{N}\Bigl(1-\frac{K}{N}\Bigr)\Bigl(1-\frac{n\mspace{1mu}{-}\mspace{1mu}1}{N\mspace{1mu}{-}\mspace{1mu}1}\Bigr).](/sites/default/files/tex_cache/31f24511030c575375166f992e4268a9.png)
Заметим любопытнейшую вещь: если вынимать шары с возвращением, то
испытания станут независимыми испытаниями в схеме Бернулли; cтавшие
независимыми величины в сумме дадут число белых
шаров, имеющее биномиальное распределение с параметрами
и
и точно такое же математическое ожидание
,
как и у числа белых шаров при выборе без возвращения}.
Дисперсия же у числа белых шаров при выборе без возвращения меньше,
чем при выборе с возвращением - за счет отрицательной
коррелированности
слагаемых и
при
.