Тема Теория вероятностей и статистика

01 Дискретные случайные величины. Мат. ожидание и дисперсия. Ковариация.

Вспоминай формулы по каждой теме
Решай новые задачи каждый день
Вдумчиво разбирай решения
ШКОЛКОВО.
Готовиться с нами - ЛЕГКО!
Подтемы раздела теория вероятностей и статистика
Решаем задачи

Ошибка.
Попробуйте повторить позже

Задача 21#58423

Вероятность выигрыша при игре в рулетку против казино равна p  . Игрок решил играть в рулетку, пока не выиграет. Найти вероятность того, что он будет участвовать в n  -ом кручении рулетки, а в n + 1  участвовать уже не будет.

Показать ответ и решение

Случайная величина X  , равная количеству сыгранных партий в рулетку, распределена геометрически с параметром p  .

Для того, чтобы игрок участвовал в n − ом кручении рулетки, нужно, чтобы он n − 1  раз проиграл, а чтобы не участвовал в n + 1  нужно, чтобы при n  кручении он выиграл. Но игры в рулетку независимы, поэтому
P (X = n ) = P ( 1-ы й р аз пр оиграет ∩ 2 -ы й проиграет ∩ ... n− 1-ы й п роиграет ∩ n-ый вы и&#x0
= P ( 1-ый раз прои гр ает )P ( 2-ый пр оиграет )...P ( n − 1-ый прои грает )P ( n -ы й выи&#x
= (1− p)n− 1p

Ответ:

Ошибка.
Попробуйте повторить позже

Задача 22#58424

Пусть распределение случайных величин задано таблицей

---------|----|-----
-X--∖-Y--|0---|--1--
 0       |0.1 | 0.3
         |    |
 1       |0.4 |  ?

Где на пересечении строки и столбца стоит вероятность того, что X  принимает соответствующее значение (указанное в строке) и при этом Y  принимает соответствующее значение (указанное в столбце ).

Задача. a) Какая вероятность должна стоять вместо ”  ?”  ;
b) Найти cov(X,Y )  ;
c) Зависимы ли случайные величины X  и Y  ?

Показать ответ и решение

a) Ясно, что все клетки таблицы вместе дают все возможности, чему могут быть равны величины X  и Y  .

Поэтому в оставшейся клетке будет стоять 1 − 0.1 − 0.3− 0.4 = 0.2  . Таким образом, заполненная таблица выглядит так:

---------|----|-----
         |    |
-X--∖-Y--|0---|--1--
 0       |0.1 | 0.3
         |    |
 1       |0.4 | 0.2

b) Для того, чтобы найти cov(X,Y )  , надо понять, как распределены X  и Y  .

Они обе принимают только значения 0 или 1, давайте посчитаем, с какой вероятностью, по формуле полной вероятности:

P (X  = 0) = P(X  = 0∩ Y =  0)+ P (X  = 0 ∩ Y = 1)

Слагаемые здесь - это в точности клеточки первой строчки.

Таким образом,

P (X  = 0) = P(X  = 0∩ Y =  0)+ P (X  = 0 ∩Y  = 1) = 0.1 + 0.3 = 0.4

Но тогда понятно, что раз X  принимает только два значения, то P(X =  1) = 1 − P(X = 0) = 0.6  .

Аналогично, по формуле полной вероятности:

P (Y = 0) = P(Y = 0 ∩ X =  0)+ P (Y  = 1∩ X  = 1)

Слагаемые здесь - это в точности клеточки первого столбца.

Таким образом,

P (Y  = 0) = P(Y = 0 ∩ X = 0 )+ P (Y  = 1∩ X  = 1) = 0.1 + 0.4 = 0.5

Но раз Y  принимает только два значения, то P (Y  = 1) = 1 − P (Y = 0) = 0.5  .

И теперь мы можем вычислить их мат. ожидания:

EX  = 1⋅0.6 + 0⋅0.4 = 0.6

EY  = 1⋅0.5+  0⋅0.5 = 0.5

Далее, для формулы ковариации cov(X,Y ) = E(XY  )− EXEY  , нам нужно посчитать ещё мат. ожидания от произведения XY  .

Но произведение величин, которые принимают значение 0 или 1, тоже принимает значение 0 или 1.

P(XY  =  0) = P (X = 0 ∩ Y = 0)+ P(X =  0∩ Y = 1 )+ P (X  = 1 ∩Y  = 0) = 0.1 + 0.3 + 0.4 = 0.8

P (XY  = 1) = P (X = 1∩ Y = 1) = 0.2

Таким образом,

E (XY  ) = 0 ⋅0.8+ 1 ⋅0.2 = 0.2

И тогда

cov(X,Y ) = E(XY  )− EXEY    = 0.2 − 0.6⋅0.5 = − 0.1

с) Они зависимы, потому что если случайные величины независимы, то их ковариация равна 0, а у нас получился не 0.

Ответ:

Ошибка.
Попробуйте повторить позже

Задача 23#88663

Пусть ξ  и η  - случайные величины, определенные на счётном Ω  .

a) Привести пример, когда E (ξ + η)  существует, но при этом не существуют оба E ξ  и E η  ;

b) Пусть и E ξ  и E η  существуют. Доказать, что E (ξ + η )  в таком случае тоже обязательно существует, и к тому же

E(ξ + η) = E ξ + E η
Показать ответ и решение

a) Допустим

                          1
Ω = {ω1,.ω2,...},  P(ωi) = -i
                          2

, а случайная величина ξ  определена так:

           i
ξ(ωi) = 100

Тогда

      +∑∞       1   +∑ ∞
E ξ =    100i ⋅-i =    50i
      i=1      2    i=1

И естественно этот ряд расходится, поэтому мат. ожидания у ξ  не существует.

Если η  - случайная величина, определенная на том же вероятностном пространстве, но

             i
η (ωi) = − 100

То очевидно по тем же соображениям, что у η  тоже не существует мат. ожидания.

Однако у их суммы ξ + η  мат. ожидание существует, потому что ξ + η  - это тождественно нулевая случайная величина, так что

∃E (ξ + η) = E (         ◟0◝◜◞          ) = 0
               тождественно нулевая сл. вел.

b) Нам дано, что существуют оба Eξ  и E η  .

Пусть ξ(ωk ) = xk,η (ωk ) = yk,P (ωk) = pk  . Тогда нам дано, что сходятся абсолютно следующие ряды:

 ∞
∑  x  p
     k k
k=1

 ∞
∑
    ykpk
k=1

Покажем, что тогда и ряд

∑∞
   (xkpk + ykpk)
k=1

сходится абсолютно Действительно, если взять n − ую частичную сумму его модулей:

Sanbs=  |x1p1 + x2p2 + ....+ xnpn + y1p1 + ...+ ynpn|

То по неравенству треугольника:

Sanbs=  |x1p1 + x2p2 + ....+ xnpn + y1p1 + ...+ ynpn| ≤

≤ |x1p1 + x2p2 + ....+  xnpn|+ |y1p1 + ...+ ynpn |

Но значение |x1p1 + x2p2 + ....+  xnpn| меньше какого-то C1   для любого n  (поскольку нам дано, что ряд ∞∑
   xkpk
k=1  сходится абсолютно, то есть ряд  ∞∑
    |xkpk|
k=1 сходится. А для ряда ∞∑
   |xkpk |
k=1 с неотрицательными членами мы применяем критерий сходимости ряда с неотриц. членами и из его сходимости выводим, что последовательность его частичных сумм ограничена сверху некоторым C1   ).

Аналогично, значение |y1p1 + ...+ ynpn| меньше какого-то C2   при любом n  .

Следовательно,

Sabs≤  C1 + C2
 n

Следовательно, последовательность частичных сумм ряда

 ∞
∑
    |xkpk + ykpk|
k=1

ограничена сверху. Следовательно, ряд

∑∞
   (xkpk + ykpk)
k=1

сходится абсолютно.

Но, заметим, что

∑∞                ∑∞
   (xkpk + ykpk) =   (xk + yk)pk
k=1               k=1

То есть мы сейчас доказали, что сходится абсолютно тот ряд, который и равен E (ξ + η)  . Таким образом, мы доказали, что если у ξ  и у η  существовали мат. ожидания, то и у их суммы тоже будет существовать мат. ожидание.

(на языке рядов мы доказали сейчас то, что почленная сумма двух абсолютно сходящихся рядов тоже сходится абсолютно).

Нам осталось доказать лишь то, что E (ξ + η) = Eξ + E η  .

Но это следует из общего факта про ряды:

ФАкт из теории рядов. Пусть ряд  ∞∑
    an
n=1  - сходится. Пусть ряд  ∞∑
    bn
n=1  - сходится.

Тогда если  ∞∑  a =  A
n=1  n  , ∞∑  b  = B
n=1 n  , то ∑∞ (a  + b ) = A + B
n=1  n   n  .

Доказательство.
То, что ряд  ∞∑
    an
n=1  сходится, по определению означает, что имеет предел последовательность его частичных сумм

Sn = a1 + a2 + ...+ an

Причём нам дано, что

∃ lim  Sn = A
 n→ ∞

Так как  ∞∑
    an = A
n=1  .

Аналогично, тот факт, что ряд ∑∞
   bn
n=1  сходится, по определению означает, что имеет предел последовательность его частичных сумм

 ˜
Sn = b1 + b2 + ...+ bn

Причём нам дано, что

       ˜
∃ nli→m∞ Sn = B

Далее, ясно, что для суммы рядов  ∞
 ∑  an
n=1  и  ∞
 ∑  bn
n=1  последовательность частичных сумм будет иметь вид

                                          ˜
(a1 + b1)+ (a2 + b2)+ ...+ (an + bn) = Sn + Sn

Но поскольку

∃ lim  Sn = A,∃ lim S˜n =  B
 n→ ∞          n→∞

то по теореме о сумме пределов,

            ˜
∃nl→im∞ Sn + Sn = A + B

А это по определению означает, что ряд

∑∞
   (an + bn)
n=1

сходится, причём его сумма равна A + B  .

Отсюда и следует факт про аддитивность мат. ожиданий в бесконечном случае.

Ответ:

Ошибка.
Попробуйте повторить позже

Задача 24#88664

Пусть ξ  и η  - случайные величины, определенные на конечном или счётном Ω  . Пусть и E ξ  и Eη  существуют (в случае конечного Ω  это всегда так, в случае счётного мы просто сами это требуем).

Пусть, кроме того, для любого ω ∈ Ω  выполнено ξ(ω) ≤ η(ω )  .

Доказать, что тогда

Eξ ≤ E η
Показать ответ и решение

Пусть ξ  принимает значения xk  , пусть η  принимает значения yk  , пусть вероятности элементарных исходов равны pk  .

Тогда в конечном случае требуемое неравенство очевидно, потому что в конечном случае

       n
E ξ = ∑  x p
          k k
      k=1

      ∑n
E η =    ykpk
      k=1

И неравенство E ξ ≤ E η  следует из того, что просто каждое слагаемое в одной сумме не превосходит соответствующего слагаемого в другой сумме (для любого k  xkpk ≤ ykpk  ).

В бесконечном же случае, если мы предполагаем, что Eξ  и E η  существуют, то, во-первых, неравенство (по тем же соображениям) можно записать для любой частичной суммы:

∑N        ∑N
   x  p ≤     y p
k=1  k k  k=1  k k

И далее, мы имеем право сделать предельный переход при N →  +∞ , так как мы знаем, что оба ряда сходятся, и получим (в силу того, что неравенства сохраняются при предельном переходе):

+∑∞        +∑ ∞
   xkpk ≤     ykpk
k◟=1◝◜--◞  k◟=1◝◜--◞
   Eξ        Eη
Ответ:

Ошибка.
Попробуйте повторить позже

Задача 25#88665

Привести пример случайной величины, определенной на счётном Ω  , у которой мат. ожидание существует, а дисперсия не существует.

Показать ответ и решение

Пусть Ω = {ω1,ω2,...} , P(ωk) = 21k  , ξ(ωk) = 2kk2   . Тогда

     ∑∞  2k 1   ∑∞  1
Eξ =     -2-k-=     -2-
     k=1 k 2    k=1 k

и этот ряд сходится, то есть E ξ  существует.

В то же время для существования Varξ  необходимо существование E (ξ2)  , то есть (абсолютная) сходимость ряда

   2    ∑∞  22k 1    ∑∞  2k
E (ξ ) =     k4-2k-=    k4-
        k=1         k=1

А этот ряд, очевидно, расходится, потому что его общий член даже не стремится к нулю.

Ответ:

Ошибка.
Попробуйте повторить позже

Задача 26#88666

Пусть монета подбрасывается до выпадения первого орла. Если орёл выпал впервые на чётном шаге, нам дают 10 рублей. Если же орёл выпал впервые на нечётном шаге, то у нас забирают 10 рублей.

Найти мат. ожидание и дисперсию нашей прибыли.

Показать ответ и решение

Итак, у нас следующая ситуация:

Ω  = { р, ро, р ро, ррро, рррро, ... и т.д. }

Ясно, что

                1
P(  pp...po  ) = -k-
   k◟−-◝1◜ ре◞шка    2

А ξ  определена так:

                   k
ξ( p◟p.◝.◜.po◞  ) = (− 1) 10
  k− 1 решка

Тогда

     ∑+∞     k    1
E ξ =   (− 1) 10⋅ 2k-
     k=1

Этот ряд, легко понять, сходится абсолютно (если навесить модули, то с точностью до умножение на константу это будет геом. прогрессия). Тогда

      +∞                 +∞
      ∑      k    1--    ∑   −-1 k      -−21-      − 1    10-
E ξ =    (− 1) 10⋅ 2k = 10   ( 2 ) =  10⋅ 3  = 10 ⋅ 3 =  − 3
      k=1                 k=1             2

Далее, V arξ = E (ξ2) − (E ξ)2   , поэтому для вычисления дисперсии нам осталось посчитать только E (ξ2)  .

        +∞                    + ∞
E(ξ2) = ∑  (− 1)2k100⋅ 1-= 100∑   1--= 100
                      2k          2k
        k=1                   k=1

Таким образом,

           2        2         100-  800-
V arξ = E (ξ ) − (Eξ)  = 100−   9  =  9
Ответ:

Ошибка.
Попробуйте повторить позже

Задача 27#88669

Пусть у нас есть n  принтеров в офисе, каждый из них ломается за год с вероятностью p  . Найти мат. ожидание и дисперсию количества сломанных принтеров за год.

Комментарией. То, что происходит в этой задаче, в науке называется биномиальным распределением (вместо принтеров, естественно, может быть любые другие n  объектов, каждый из которых что-то ”  делает”  с одной и той же вероятностью p  ). При вычислении вы сразу же поймете, причем тут бином.

Показать ответ и решение

Давайте поймем самое главное - какие значения принимает наша случайная величина, равная количеству сломанных принтеров, и с какими вероятностями.

Ясно, что если ξ  - количество сломанных принтеров, то ξ  может быть равна 0,1,2,...,n  .

С какими вероятностями принимаются эти значения?

Например,

                                                       n
P(ξ = 0) = P( все пр интеры останутся целы ми ) = (1− p)

(мы считаем, что принтеры друг на друга никак не влияют и ломаются независимо.)

Ну хорошо, для ξ = 0  вероятность было посчитать легко, а что будет в общем случае? Какая вероятность того, что ξ = k  ? То есть что у нас какие-то k  принтеров сломаются?

Если фиксировать конкретные k  принтеров, к примеру, первые k  , то вероятность, что именно они сломаются, а остальные останутся целыми будет

 k      n− k
p (1−  p)

Но сломаться-то могут любые k  . Значит, надо посчитать, сколькими способами можно выбрать k  сломающихся принтеров из n  . Ясно, что Ckn  способами. И у каждого из Ckn  наборов вероятность будет  k      n− k
p (1 − p)  .

Поскольку нас устраивает любой такой набор, то эти одинаковые вероятности нужно сложить, и будет сумма из Ckn  слагаемых, каждое из которых равно pk(1− p)n−k  .

Таким образом, получаем, что

             k k      n−k
P (ξ = k) = C np (1− p)

Таким образом, мы сразу же можем посчитать мат. ожидание ξ  :

     ∑n               ∑n                     ∑n        n!
Eξ =    k ⋅P (ξ = k ) =  k ⋅Cknpk(1− p)n−k =    k ⋅---------pk(1 − p)n−k =
     k=0              k=0                    k=0   k!(n − k)!

  ∑n                                 ∑n
=    ------n!-------pk(1 − p)n−k = np    ----(n−-1)!---pk− 1(1 − p)n−k =
  k=1(k − 1)!(n − k)!                 k=1 (k − 1)!(n − k)!

      n
= np ∑  Ck− 1pk− 1(1 − p)n−k
         n− 1
     k=1

И тут уже вырисовывается картина того, что мы должны в конце концов получить.

Давайте прибегнем к небольшой хитрости и распишем

∑n                       ∑n
    Ckn−−11pk−1(1 − p)n−k =    Ckn−− 11pk−1(1− p)n−1−(k−1)
k=1                      k=1

Мы просто в степени (1 − p)  вместо n−  k  записали n − 1− (k − 1)  , что одно и то же.

Но теперь-то заметим, что если мы будем по биному Ньютона раскрывать выражение

           n−1
(p + (1− p))

то что у нас получится? А у нас как раз и получится

          n− 1  ∑n   k−1 k− 1      n−1−(k−1)
(p + 1− p )   =     Cn−1p   (1 − p)
                k=1

Просто тупо по биному Ньютона. Таким образом, оставшаяся сумма равна (p+ 1 − p)n−1   , что, разумеется, равно единичке для любого p  и для любого n  . Таким образом, окончательно получаем:

     ∑n               ∑n                            ∑n
Eξ =    k ⋅P (ξ = k) =    k ⋅Cknpk(1 − p)n−k = ...= np    Ckn−−11pk−1(1 − p)n− 1−(k− 1) = np
     k=0              k=0                           k=1----------  ------------
                                                    ◟            ◝=◜1           ◞

Вот мы и посчитали мат. ожидание.

Попробуем посчитать дисперсию:

           2       2
Varξ = E (ξ )− (Eξ)

То есть для дисперсии нам нужно посчитать только лишь     2
E (ξ)  .

Итак,

    2   ∑n   2            ∑n  2   k  k      n−k   ∑n  2  ---n!---- k      n− k
E (ξ) =    k  ⋅P (ξ = k) =    k  ⋅Cnp (1 − p)    =    k  ⋅k!(n − k)!p (1− p )   =
        k=0               k=0                     k=0

  ∑n
=    (k + (k − 1)k)⋅---n!---pk (1 − p)n−k =
  k=0              k!(n − k)!

   n                            n
  ∑     ----n!--- k       n−k  ∑           ----n!---  k      n−k
=    k ⋅k!(n−  k)!p (1 − p)   +    (k − 1)k ⋅k!(n − k)!p (1 − p)
  k◟=0---------◝◜------------◞  k=0
   =np -мы это только что считали

Таким образом, остается вычислить лишь

∑n
   (k − 1)k ⋅---n!----pk(1− p)n−k
k=0          k!(n − k)!

 n                                   n
∑            ---n!---- k      n−k   ∑   ------n!-------k      n−k
   (k − 1)k ⋅ k!(n − k)!p (1 − p)   =     (k − 2)!(n − k)!p (1− p)    =
k=0                                 k=2

             ∑n
=  n(n− 1)p2    ----(n-−-2)!---pk− 2(1 − p)n−2−(k−2)
             k=2 (k − 2)!(n − k)!

И тут, как вы видите, срабатывает тот же самый трюк, поскольку

 n                                      n
∑  ----(n-−-2)!---pk− 2(1 − p)n−2−(k−2) = ∑  Ck−2pk−2(1 − p)n−2−(k− 2)
   (k − 2)!(n − k)!                          n−2
k=2                                     k=2

Есть не что иное, как             n−2
(p+  (1 − p))   , что равно 1 при любом p  и при любом n  .

Поэтому получаем, что

        ∑n                           ∑n
E(ξ2) =    k ⋅----n!---pk(1−  p)n− k+    (k − 1)k ⋅---n!---pk(1 − p)n−k =
        k=0   k!(n− k)!              k=0         k!(n−  k)!
        ◟-----------◝=◜np-----------◞

= np+  n(n− 1)p2

Следовательно,

V arξ = E (ξ2)− (E ξ)2 = np+n (n− 1)p2− (np )2 = np+n2p2 − np2− n2p2 = np − np2 = n (p− p2) = np(1− p)

Замечание 1. Нетрудно видеть, что вычисления ни в случае мат. ожидания, ни в случае дисперсии не самые приятные. И вот в случае мат. ожидания действительно можно было все облегчить, но мы специально показали сложный способ, чтобы вы могли сравнить его с простым, который получается при помощи нашего замечательного свойства аддитивности мат. ожидания.

Итак, пусть I1   - случайная величина, равная 1, если первый принтер сломался, и 0 если нет. I2   - случайная величина, равная 1, если второй принтер сломался, и 0 если нет. И так далее...

Тогда ясно, что ξ = I1 + ...+ In  .

Далее, очевидно, что EIk =  1⋅p + 0⋅(1 − p) = p  , а по свойству аддитивности мат. ожидания

Eξ = E (I1 + ...+ In) = EI1 + ...+ EIn = p◟+-p-+◝◜...+-p◞ = np
                                          n раз

И мы получаем тот же ответ для мат. ожидания, только в тысячу раз проще.

Замечание 2. Логичный вопрос, а нельзя ли было получить результат для дисперсии так же нахаляву? Во-первых, можно, но вообще говоря далеко не всегда.

Но в этой задаче можно, потому что принтеры ломаются независимо (обратите внимание, что в халявном вычислении мат. ожидания это нигде не нужно было учитывать). С другой стороны, пока мы не доказали формулы для аддитивности дисперсии в независимом случае, мы ей и не пользуемся, поэтому тут пришлось немного пострадать с преобразованием сумм.

Ответ:

Ошибка.
Попробуйте повторить позже

Задача 28#88670

Пусть у нас есть N  ячеек и n  шаров. Пусть шары наугад бросаются в ячейки (может оказаться, что какие-то ячейки в итоге пустые, а в каких-то ячейках больше 1 шара). Вычислить мат. ожидание числа занятых ячеек.

Показать ответ и решение

Пусть ξ  - случайная величина, равная числу занятых ячеек. Посчитать в явном виде вероятности того, что ξ = 0,1,2,...,N  здесь будет невероятно трудно (например, если N =  100  , то, допустим, какая вероятность того, что разбрасывая n = 70  шаров в итоге 50 ячеек останутся свободными? Перебрать все эти варианты и поделить на количество всех вариантов будет, даже пользуясь всей мыслимой и немыслимой комбинаторикой, близко к невозможному, ну или по крайней мере к нежелаемому).

А ведь именно эти вероятности нам и нужно было бы посчитать, если бы мы хотели вычислить E ξ  по определению. Потому что      ∑N
Eξ =    k ⋅P (ξ = k)
     k=0  .

Но мы, разумеется, поступим иначе. Введем вспомогательные случайные величины X1,...,XN  , где Xi  определяется так:

      (
      {1   есл и i − ая ячейка занята
Xi =
      (0   есл и i − ая ячейка свободна

Тогда, ясно, что, например,

EX1  = 1⋅P( первая ячейка занята )+0⋅P ( первая ячей ка свобод на ) = P ( первая &

А как посчитать P ( первая яч ей ка зан ята )  ?

Тут мы вновь прибегнем к уже избитому и знакомому нам трюку, который здесь тоже все сильно облегчает:

P ( первая ячейка занята ) = 1 − P ( первая яч ей ка свобод на )

Ну а вероятность того, что первая ячейка свободна, посчитать уже легко.

Это означает, что все n  шаров отправлялись в любые ячейки, кроме первой.

Вероятность того, что первый шар попадает в любую ячейку, кроме первой, равна N−N-1  . Вероятность того, что второй шар попадает в любую ячейку, кроме первой, тоже равна N−1-
 N  . Поскольку шары кидаются, очевидно, независимо, то вероятность того, что все n  шаров попадут в любую ячейку, кроме первой, равна произведению  N-−1 n
( N  )  .

Таким образом,

P ( первая ячей ка зан ята ) = 1− P( первая ячейка свободна ) = 1− (N-−-1)n
                                                                    N

Следовательно,

            N − 1
EX1  = 1 − (------)n
              N

Абсолютно аналогично получаем и то, что для любого i

            N-−-1-n
EXi  = 1 − (  N   )

Следовательно, в силу аддитивности мат. ожидания

                                           N − 1        N − 1          N − 1           N  − 1
Eξ = E (X1+...+XN  ) = EX1+...+EXN   = 1− (------)n+1 − (------)n+...1− (-----)n = N (1− (-----)n)
                                             N            N             N                N
Ответ:
Рулетка
Вы можете получить скидку в рулетке!