реферат, рефераты скачать
 

Курс лекций по теории вероятностей


Если ? ( ? п.н., и при этом E? = E?, то ? = ? п.н.

E6. Математическое ожидание произведения независимых случайных величин

равно произведению их математических ожиданий.: если ? и ? независимы, то

E(??) = E? E?.

Доказательство.

[pic]

Замечание 16. Обратное утверждение к свойству E6 неверно: из равенства

E(??) = E? E?. Не следует независимость величин ? и ?.

Пример 28. Пусть ? ( U0,2?, ? = cos ?, ? = sin ?— заведомо зависимые

случайные величины. Но математическое ожидание их произведения равно

произведению их математических ожиданий: по свойству E1

[pic]

11.3 Моменты старших порядков. Дисперсия

Определение 40. Если [pic], то число

[pic] называется моментом порядка k (k -м моментом) случайной величины

?;

[pic] называется абсолютным моментом порядка k (абсолютным k -м

моментом) случайной величины ?;

[pic] называется центральным моментом порядка k (центральным k -м

моментом) случайной величины ?;

[pic] называется абсолютным центральным моментом порядка k (абсолютным

центральным k -м моментом) случайной величины ?.

Число D? = E(? – E?)2 (центральный момент порядка 2) называется

дисперсией случайной величины ?

Пример 29. Пусть, скажем, случайная величина ? принимает значение 0 с

вероятностью 1-10-5 , и значение 100 с вероятностью 10-5. Посмотрим, как

моменты разных порядков реагируют на большие, но маловероятные значения

случайной величины.

[pic]

Пример 30. Дисперсия D? = E(? – E?)2 есть «среднее значение квадрата

отклонения случайной величины ? от своего среднего». Посмотрим, за что эта

величина отвечает.

Пусть случайная величина ? принимает значения +-1 с вероятностью 1/2, а

случайная величина ? — значения ю +-10 с вероятностью 1/2. Тогда E? = E? =

0 поэтому D ? = E ?2 = 1, D? = E?2 = 100. Говорят, что дисперсия

характеризует степень разброса значений случайной величины вокруг ее

математического ожидания.

Если говорить о распределении случайной величины, как о распределении

единичной массы по невесомому стержню, то дисперсия есть в точности момент

инерции этого стержня, закрепленного в центре тяжести.

Определение 40. Если дисперсия величины ? конечна, то число

[pic]называют среднеквадратичным отклонением случайной величины ?.

Следует хорошо понимать, что из существования моментов больших порядков

следует существование моментов меньших порядков. В частности, конечность

второго момента (или дисперсии) влечет существование математического

ожидания.

11.4 Свойства дисперсии

Все свойства дисперсии следуют из соответствующих свойств

математического ожидания.

D1. [pic]

Действительно,

[pic]

D2. [pic]

D3.

[pic]если и только если ?= const.п.н.

Доказательство. Дисперсия есть всего-навсего математическое ожидание

п.н. неотрицательной с.в.:

D? = E(? – E?)2, и неотрицательность дисперсии следует из свойства E5.

По тому же свойству, D? = 0 если и только если E(? – E?)2 = 0 п.н., то есть

? = ? п.н.

D4. Дисперсия не меняется от сдвига с.в. на постоянную:

[pic]

D5. Если ? и ? независимы, то

[pic]

Действительно,

[pic]

так как математическое ожидание произведения независимых с.в. равно

произведению их математических ожиданий.

D6. Минимум среднеквадратического отклонения случайной величины ? от

точек вещественной прямой есть среднеквадратическое отклонение ? от своего

математического ожидания:

[pic]

Наименьший момент инерции стержня с распределенной на нем единичной

массой получится, если точка вращения – центр тяжести стержня, а не любая

другая точка.

Доказательство.

[pic]причем равенство достигается только для а = E?.

11.5 Математические ожидания и дисперсии стандартных распределений

Пример 31. Распределение Бернулли Вр,

[pic]

Пример 32. Биномиальное распределение Вn,p

Воспользуемся свойством устойчивости биномиального распределения

относительно суммирования — леммой 5. Возьмем n независимых случайных

величин ?1 ?2 … ?n, имеющих распределение Бернулли В,p = В1,p.

Тогда их сумма Sn = ?1 + ?2 +… + ?n имеет распределение Вn,p

[pic]

так как все ?i одинаково распределены и их математическое ожидание

равно pi;

[pic]

поскольку ?i независимы и дисперсия каждой равна pq.

Пример 33. Геометрическое распределение Gp

При p ( (0,1)

[pic]

Равенство (*) появилось из-за нежелания дифференцировать сумму

геометрической прогрессии, которая начинается не с 0 а с q. Заметьте, что

производная у добавленных слагаемых равна 0, так что производные от этих

двух сумм равны

[pic]

Поэтому

Пример 34. Распределение Пуассона П?

[pic][pic]

Показать, что

[pic], следовательно [pic]

Пример 35. Равномерное распределение Ua,b

[pic][pic]

[pic]

Пример 36. Стандартное нормальное распределение N0,1

[pic]

поскольку под интегралом стоит нечетная функция, и сам интеграл

абсолютно сходится (за счет быстро убывающей [pic]

[pic]

Последнее равенство следует из того, что

а интеграл по всей прямой от плотности любого распределения равен 1.

Поэтому

Пример 37. Нормальное распределение [pic]

Мы знаем, что если

[pic][pic]

Поэтому

[pic]

Пример 38. Показательное (экспоненциальное) распределение Е?

Найдем для произвольного k ( N момент порядка k.

[pic]

В последнем равенстве мы воспользовались гамма-функцией Эйлера:

[pic] Соответственно,

[pic]

Пример 39. Стандартное распределение Коши С0,1

Распределение Коши. Говорят, что ? имеет распределение Коши с

параметрами ?, ?2, где ? ( R, ? > 0, если

[pic] для всех х ( R

Распределение Коши имеет, например, абсцисса точки пересечения луча,

посланного из точки (?, ?) под наудачу выбранным углом,

[pic] с осью ОХ.

Математическое ожидание для распределения Коши не существует, поскольку

[pic]

расходится (подинтегральная функция ведет себя на бесконечности как

1/х).

Пример 40. Распределение Парето

Распределение Парето. Говорят, что ? имеет распределение Парето с

параметрами х0, s, где х0 > 0, s > 0, если

[pic]

У распределения Парето существуют только моменты порядка u < s,

поскольку

[pic]

сходится при u < s, то есть когда подинтегральная функция на

бесконечности бесконечно мала по сравнению с 1/х.

«Случайных величин без мат. ожидания не

бывает, так как, если у нас есть случайная

величина мы всегда в праве от нее что-нибудь

ожидать.»

Из студенческой контрольной работы.

Раздел 11. Числовые характеристики случайных величин

11.1 Математическое ожидание случайной величины

Определение 38. Математическим ожиданием E? (средним значением, первым

моментом) случайной величины ? с дискретным распределением, задаваемым

таблицей P(? = аi) = pi, называется число

[pic] если указанный ряд абсолютно сходится.

Если же

[pic], то говорят, что математическое ожидание не существует.

Определение 39. Математическим ожиданием E? случайной величины ? с

абсолютно непрерывным распределением с плотностью распределения f?(x),

называется число

[pic] если указанный интеграл абсолютно сходится.

Если же

[pic], то говорят, что математическое ожидание не существует.

Математическое ожидание имеет простой физический смысл: если на прямой

разместить единичную массу, поместив в точку аi массу pi (для дискретного

распределения), или «размазав» ее с плотностью f?(x) (для абсолютно

непрерывного распределения), то точка E? есть координата «центра тяжести»

прямой.

Пример 26. Пусть случайная величина ? равна числу очков, выпадающих при

одном подбрасывании кубика. Тогда

[pic]

[pic][pic]

в среднем при подбрасывании кубика выпадает 3.5 очка

Пример 27. Пусть случайная величина ? — координата точки, брошенной

наудачу на отрезок [a,b]. Тогда

[pic][pic]

центр тяжести равномерного распределения на отрезке есть середина

отрезка.

11.2 Свойства математического ожидания

Во всех свойствах предполагается, что рассматриваемые математические

ожидания существуют.

E0. Математическое ожидание случайной величины есть ЧИСЛО!

E1. Для произвольной функции функция g : R ( R

[pic]

Доказательство. Мы докажем это свойство (как и почти все дальнейшие)

только для дискретного распределения. Пусть g(?) принимает значения с1 с2 …

с вероятностями

[pic]

Тогда

[pic]

E2 Математическое ожидание const равно этой const Eс = с.

E3. const можно вынести за знак математического ожидания: E(с ?) = с

E?.

Доказательство. Следует из свойства E1 при g(?) = с ? .

E4. Математическое ожидание суммы любых случайных величин ? и ? равно

сумме их математических ожиданий.

E (? + ? ) = E (? )+ E (?)

Доказательство. Для величин с дискретным распределением: пусть xk и yn

— значения ? и ?, соответственно.

[pic]

E5.Если ? ( 0 п.н. (« почти наверное», т.е. с вероятностью 1: P(? ( 0 )

= 1), то E ? ( 0;

Если ? ( 0 п.н., и при этом E? = 0, то ? = 0 п.н., то есть P(? = 0) =

1.

Следствие 11.

Если ? ( ? п.н., то E ? ( E? .

Если ? ( ? п.н., и при этом E? = E?, то ? = ? п.н.

E6. Математическое ожидание произведения независимых случайных величин

равно произведению их математических ожиданий.: если ? и ? независимы, то

E(??) = E? E?.

Доказательство.

[pic]

Замечание 16. Обратное утверждение к свойству E6 неверно: из равенства

E(??) = E? E?. Не следует независимость величин ? и ?.

Пример 28. Пусть ? ( U0,2?, ? = cos ?, ? = sin ?— заведомо зависимые

случайные величины. Но математическое ожидание их произведения равно

произведению их математических ожиданий: по свойству E1

[pic]

11.3 Моменты старших порядков. Дисперсия

Определение 40. Если [pic], то число

[pic] называется моментом порядка k (k -м моментом) случайной величины

?;

[pic] называется абсолютным моментом порядка k (абсолютным k -м

моментом) случайной величины ?;

[pic] называется центральным моментом порядка k (центральным k -м

моментом) случайной величины ?;

[pic] называется абсолютным центральным моментом порядка k (абсолютным

центральным k -м моментом) случайной величины ?.

Число D? = E(? – E?)2 (центральный момент порядка 2) называется

дисперсией случайной величины ?

Пример 29. Пусть, скажем, случайная величина ? принимает значение 0 с

вероятностью 1-10-5 , и значение 100 с вероятностью 10-5. Посмотрим, как

моменты разных порядков реагируют на большие, но маловероятные значения

случайной величины.

[pic]

Пример 30. Дисперсия D? = E(? – E?)2 есть «среднее значение квадрата

отклонения случайной величины ? от своего среднего». Посмотрим, за что эта

величина отвечает.

Пусть случайная величина ? принимает значения +-1 с вероятностью 1/2, а

случайная величина ? — значения ю +-10 с вероятностью 1/2. Тогда E? = E? =

0 поэтому D ? = E ?2 = 1, D? = E?2 = 100. Говорят, что дисперсия

характеризует степень разброса значений случайной величины вокруг ее

математического ожидания.

Если говорить о распределении случайной величины, как о распределении

единичной массы по невесомому стержню, то дисперсия есть в точности момент

инерции этого стержня, закрепленного в центре тяжести.

Определение 40. Если дисперсия величины ? конечна, то число

[pic]называют среднеквадратичным отклонением случайной величины ?.

Следует хорошо понимать, что из существования моментов больших порядков

следует существование моментов меньших порядков. В частности, конечность

второго момента (или дисперсии) влечет существование математического

ожидания.

11.4 Свойства дисперсии

Все свойства дисперсии следуют из соответствующих свойств

математического ожидания.

D1. [pic]

Действительно,

[pic]

D2. [pic]

D3.

[pic]если и только если ?= const.п.н.

Доказательство. Дисперсия есть всего-навсего математическое ожидание

п.н. неотрицательной с.в.:

D? = E(? – E?)2, и неотрицательность дисперсии следует из свойства E5.

По тому же свойству, D? = 0 если и только если E(? – E?)2 = 0 п.н., то есть

? = ? п.н.

D4. Дисперсия не меняется от сдвига с.в. на постоянную:

[pic]

D5. Если ? и ? независимы, то

[pic]

Действительно,

[pic]

так как математическое ожидание произведения независимых с.в. равно

произведению их математических ожиданий.

D6. Минимум среднеквадратического отклонения случайной величины ? от

точек вещественной прямой есть среднеквадратическое отклонение ? от своего

математического ожидания:

[pic]

Наименьший момент инерции стержня с распределенной на нем единичной

массой получится, если точка вращения – центр тяжести стержня, а не любая

другая точка.

Доказательство.

[pic]причем равенство достигается только для а = E?.

11.5 Математические ожидания и дисперсии стандартных распределений

Пример 31. Распределение Бернулли Вр,

[pic]

Пример 32. Биномиальное распределение Вn,p

Воспользуемся свойством устойчивости биномиального распределения

относительно суммирования — леммой 5. Возьмем n независимых случайных

величин ?1 ?2 … ?n, имеющих распределение Бернулли В,p = В1,p.

Тогда их сумма Sn = ?1 + ?2 +… + ?n имеет распределение Вn,p

[pic]

так как все ?i одинаково распределены и их математическое ожидание

равно pi;

[pic]

поскольку ?i независимы и дисперсия каждой равна pq.

Пример 33. Геометрическое распределение Gp

При p ( (0,1)

[pic]

Равенство (*) появилось из-за нежелания дифференцировать сумму

геометрической прогрессии, которая начинается не с 0 а с q. Заметьте, что

производная у добавленных слагаемых равна 0, так что производные от этих

двух сумм равны

[pic]

Поэтому

Пример 34. Распределение Пуассона П?

[pic][pic]

Показать, что

[pic], следовательно [pic]

Пример 35. Равномерное распределение Ua,b

[pic][pic]

[pic]

Пример 36. Стандартное нормальное распределение N0,1

[pic]

поскольку под интегралом стоит нечетная функция, и сам интеграл

абсолютно сходится (за счет быстро убывающей [pic]

[pic]

Последнее равенство следует из того, что

а интеграл по всей прямой от плотности любого распределения равен 1.

Поэтому

Пример 37. Нормальное распределение [pic]

Мы знаем, что если

[pic][pic]

Поэтому

[pic]

Пример 38. Показательное (экспоненциальное) распределение Е?

Найдем для произвольного k ( N момент порядка k.

[pic]

В последнем равенстве мы воспользовались гамма-функцией Эйлера:

[pic] Соответственно,

[pic]

Пример 39. Стандартное распределение Коши С0,1

Распределение Коши. Говорят, что ? имеет распределение Коши с

параметрами ?, ?2, где ? ( R, ? > 0, если

[pic] для всех х ( R

Распределение Коши имеет, например, абсцисса точки пересечения луча,

посланного из точки (?, ?) под наудачу выбранным углом,

[pic] с осью ОХ.

Математическое ожидание для распределения Коши не существует, поскольку

[pic]

расходится (подинтегральная функция ведет себя на бесконечности как

1/х).

Пример 40. Распределение Парето

Распределение Парето. Говорят, что ? имеет распределение Парето с

параметрами х0, s, где х0 > 0, s > 0, если

[pic]

У распределения Парето существуют только моменты порядка u < s,

поскольку

[pic]

сходится при u < s, то есть когда подинтегральная функция на

бесконечности бесконечно мала по сравнению с 1/х.

Раздел 12. Числовые характеристики зависимости случайных величин

12.1 Чем отличается дисперсия суммы от суммы дисперсий?

Мы знаем, что для независимых с. в. с конечными вторыми моментами

дисперсия их суммы равна сумме их дисперсий. Чему равна дисперсия суммы в

общем случае?

[pic](10)

Величина E(??) - E? E? равняется нулю, если случайные величины ? и ?

независимы (свойство E6 математического ожидания). С другой стороны, из

равенства ее нулю вовсе не следует независимость, как показывает пример 30.

Оказывается, что эту величину часто используют как «индикатор наличия

зависимости» пары с. в.

Определение 41. Ковариацией cov(?, ?) случайных величин ? и ?

называется число

[pic]

Свойство 10.

[pic]

Свойство 11.

a) [pic];

b) [pic].

Свойство 12. Дисперсия суммы нескольких случайных величин вычисляется

по любой из следующих формул:

[pic]

Обсудим достоинства и недостатки ковариации, как величины,

характеризующей зависимость двух с. в.

1. Если ковариация cov(?, ?) отлична от нуля, то величины ? и ?

зависимы!

2. С гарантией о наличии зависимости мы можем судить, если знаем

совместное распределение пары ? и ?, и можем проверить, равна ли (например)

плотность совместного распределения произведению плотностей.

Но найти совместное распределение часто бывает сложнее, чем посчитать

математическое ожидание произведения ? и ?. Если нам повезет, и

математическое ожидание произведения ? и ? не будет равняться произведению

их мат. ожиданий, мы скажем, что ? и ? зависимы не находя их совместного

распределения!

Пример 41. Покажем, что с помощью ковариации можно судить о зависимости

даже когда для вычисления совместного распределения недостаточно данных.

Пусть ? и ? — независимые случайные величины, и дисперсия ? отлична от

нуля. Докажем, что ? и ?+ ? зависимы.

[pic] (11)

Поэтому

[pic]

Следовательно, ? и ?+ ? зависимы.

3. Жаль, что величина cov(?, ?) не является «безразмерной»: если ? –

объем газа в сосуде, а ? – давление этого газа, то ковариация измеряется в

кубометрах х Паскали :).

Иначе говоря, при умножении одной из величин ?, ? на какое-нибудь число

ковариация тоже умножается на это число. Но умножение на число не

сказывается на «степени зависимости» величин (они от этого «более

зависимыми» не становятся), так что большое значение ковариации не означает

более сильной зависимости.

Нужно как-то нормировать ковариацию, получив из нее «безразмерную»

величину, абсолютное значение которой

а) не менялось бы при умножении или сдвиге случайных величин на число;

б) свидетельствовало бы о «силе зависимости» с. в.

Говря о «силе» зависимости между с.в., мы имеем в виду следующее. Самая

сильная зависимость – функциональная, а из функциональных – линейная

зависимость, когда ?= а? + b п.н. Бывают гораздо более слабые зависимости.

Так, если по последовательности независимых случайных величин ?1 ?2 …

построить ? = ?1 +…?24 + ?25 ? = ?25 +?26 + …+?90 , то эти величины

зависимы, но очень “слабо зависимы”: через одно-единственное общее

слагаемое ?25 .

Итак, следующая величина есть всего лишь ковариация, нормированная

нужным образом.

12.2 Коэффициент корреляции

Определение 43. Коэффициентом корреляции ?(?, ?) случайных величин ?,

?, дисперсии которых существуют и отличны от нуля, называется число

[pic]

Пример 42. Рассмотрим продолжение примера 41, но пусть ? и ? будут не

Страницы: 1, 2, 3, 4, 5


ИНТЕРЕСНОЕ



© 2009 Все права защищены.