Моменты распределений дискретных случайных величин. - Распределение вероятности случайных величин

Итак, закон распределения вероятностей дискретной СВ несет в себе всю информацию о ней и большего желать не приходится.

Не будет лишним помнить, что этот закон (или просто - распределение случайной величины) можно задать тремя способами:

в виде формулы: например, для биномиального распределения при n=3 и p=0.5 вероятность значения суммы S=2 составляет 0.375;

в виде таблицы значений величины и соответствующих им вероятностей:

в виде диаграммы или, как ее иногда называют, Гистограммы распределения:

Таблица 2-1

Сумма

0

1

2

3

Вероятность

0.125

0.375

0.375

0.125

Рис. 2-1 Гистограмма распределения

Необходимость рассматривать вопрос, поставленный в заглавии параграфа, не так уж и очевидна, поскольку непонятно, что же еще нам надо знать?

Между тем, все достаточно просто. Пусть, для какого-то реального явления или процесса мы сделали допущение (выдвинули гипотезу), что соответствующая СВ принимает свои значения в соответствии с некоторой схемой событий. Рассчитать вероятности по принятой нами схеме -- не проблема!

Вопрос заключается в другом - как проверить свое допущение или, на языке статистики, оценить достоверность гипотезы?

По сути дела, кроме обычного наблюдения за этой СВ у нас нет иного способа выполнить такую проверку. И потом - в силу самой природы СВ мы не можем надеяться, что через достаточно небольшое число наблюдений их частоты превратятся в "теоретические" значения, в вероятности. Короче - результат наблюдения над случайной величиной тоже ... случайная величина или, точнее, - множество случайных величин.

Так или примерно так рассуждали первые статистики-профессионалы. И у кого-то из них возникла простая идея: сжать информацию о результатах наблюдений до одного, единственного показателя!

Как правило, простые идеи оказываются предельно эффективными, поэтому способ оценки итогов наблюдений по одному, желательно "главному", "центральному" показателю пережил все века становления прикладной статистики и по ходу дела обрастал как теоретическими обоснованиями, так и практическими приемами использования.

Вернемся к гистограмме рис. 2-1 и обратим внимание на два, бросающихся в глаза факта:

"наиболее вероятными" являются значения суммы S=1 и S=2 и эти же значения лежат "посредине" картинки;

вероятность того, что сумма окажется равной 0 или 1, точно такая же, как и вероятность 2 или 3, причем это значение вероятности составляет точно 50 %.

Напрашивается простой вопрос - если СВ может принимать значения 0, 1, 2 или 3, то сколько в среднем составляет ее значение или, иначе - что мы ожидаем, наблюдая за этой величиной?

Ответ на такой вопрос на языке математической статистики состоит в следующем. Если нам известен закон распределения, то, просуммировав произведения значений суммы S на соответствующие каждому значению вероятности, мы найдем Математическое ожидание этой суммы как дискретной случайной величины -

M(S) = S I P(S I). {2-3}

В рассматриваемом нами ранее примере биномиального распределения, при значении p=0.5, математическое ожидание составит

M(S) = 00.125+10.375+20.375+30.125= 1.5 .

Обратим внимание на то, что математическое ожидание дискретной величины типа Int или Rel совсем не обязательно принадлежит к множеству допустимых ее значений. Что касается СВ типа Nom или Ord, то для них понятие математического ожидания (по закону распределения), конечно же, не имеет смысла. Но так как с номинальной, так и с порядковой шкалой дискретных СВ приходится иметь дело довольно часто, то в этих случаях прикладная статистика предлагает особые, Непараметрические методы.

Продолжим исследование свойств математического ожидания и попробуем в условиях нашего примера вместо S рассматривать U= S - M(S). Такая замена СВ (ее часто называют центрированием) вполне корректна: по величине U всегда можно однозначно определить S и наоборот.

Если теперь попробовать найти математическое ожидание новой (не обязательно дискретной) величины M(U) , то оно окажется равным нулю, независимо от того считаем ли мы конкретный пример или рассматриваем такую замену в общем виде.

Мы обнаружили самое важное свойство математического ожидания - оно является "центром" распределения. Правда, речь идет вовсе не о делении оси допустимых значений самой СВ на две равные части. Поистине - первый показатель закона распределения "самый главный" или, на языке статистики, - центральный.

Итак, для СВ с числовым описанием математическое ожидание имеет достаточно простой смысл и легко вычисляется по законам распределения. Заметим также, что математическое ожидание - просто числовая величина (в общем случае не дискретная, а непрерывная) и никак нельзя считать ее случайной.

Другое дело, что эта величина зависит от внутренних параметров распределения (например, - значения вероятности р числа испытаний n биномиальном законе).

Так для приведенных выше примеров дискретных распределений математическое ожидание составляет:

Тип распределения

Математическое ожидание

Биномиальное

Np

Распределение Паскаля

K q / p

Геометрическое распределение

Q / p

Распределение Пуассона

Возникает вопрос - так что же еще надо? Ответ на этот вопрос можно получить как из теории, так и из практики.

Один из разделов кибернетики - теория информации (курс "Основы теории информационных систем" у нас впереди) в качестве основного положения утверждает, что всякая свертка информации приводит к ее потере. Уже это обстоятельство не позволяет допустить использование только одного показателя распределения СВ - ее математического ожидания.

Практика подтверждает это. Пусть мы построили (или использовали готовые) законы распределения двух случайных величин X и Y и получили следующие результаты:

Таблица 2-2

Значения

1

2

3

4

P(X) %

12

38

38

12

P(Y) %

30

20

20

30

Рис. 2-2

Простое рассмотрение табл.2-2 или соответствующих гистограмм рис.2-2 приводит к выводу о равенстве M(X) = M(Y) = 0.5 , но вместе с тем столь же очевидно, что величина X является заметно "менее случайной", чем Y.

Приходится признать, что математическое ожидание является удобным, легко вычислимым, но весьма неполным способом описания закона распределения. И поэтому требуется еще как-то использовать полную информацию о случайной величине, свернуть эту информацию каким-то иным способом.

Обратим внимание, что большие отклонения от M(X) у величины X маловероятны, а у величины Y - наоборот. Но при вычислении математического ожидания мы, по сути дела "усредняем" именно отклонения от среднего, с учетом их знаков. Стоит только "погасить" компенсацию отклонений разных знаков и сразу же первая СВ действительно будет иметь показатель разброса данных меньше, чем у второй. Именно такую компенсацию мы получим, усредняя не сами отклонения от среднего, а квадраты этих отклонений.

Соответствующую величину

D(X) = (X I - M(X))2 P(X I); {2-4} принято называть Дисперсией распределения дискретной СВ.

Ясно, что для величин, имеющих единицу измерения, размерность математического ожидания и дисперсии оказываются разными. Поэтому намного удобнее оценивать отклонения СВ от центра распределения не дисперсией, а квадратным корнем из нее - так называемым среднеквадратичным отклонением, т. е. полагать

2 = D(X). {2-5}

Теперь оба параметра распределения (его центр и мера разброса) имеют одну размерность, что весьма удобно для анализа.

Отметим также, что формулу {2-3} часто заменяют более удобной

D(X) = (X I)2 P(X I) - M(X)2. {2-6}

Весьма полезно будет рассмотреть вопрос о предельных значениях дисперсии.

Подобный вопрос был бы неуместен по отношению к математическому ожиданию -- мало ли какие значения может иметь дискретная СВ, да еще и со шкалой Int или Rel.

Но дословный перевод с латыни слова "дисперсия" означает "рассеяние", "разброс" и поэтому можно попытаться выяснить - чему равна дисперсия наиболее или наименее "разбросанной" СВ? Скорее всего, наибольший разброс значений (относительно среднего) будет иметь дискретная случайная величина X, у которой все n допустимых значений имеют одну и ту же вероятность 1/n. Примем для удобства XMin И XMax (пределы изменения данной величины), равными 1 и n соответственно.

Математическое ожидание такой, Равномерно распределенной случайной величины составит M(X) = (n+1)/2 и остается вычислить дисперсию, которая оказывается равной D(X) = (XI)2/n - (n+1)2/4 = (n2-1)/ 12.

Можно доказать, что это наибольшее значение дисперсии для дискретной СВ со шкалой Int или Rel.

Последнее выражение позволяет легко убедиться, что при n =1 дисперсия оказывается Равной нулю - ничего удивительного: в этом случае мы имеем дело с детерминированной, неслучайной величиной.

Дисперсия, как и среднеквадратичное отклонение для конкретного закона распределения являются просто числами, в полном смысле показателями этого закона.

Полезно познакомиться с соотношениями математических ожиданий и дисперсий для упомянутых ранее стандартных распределений:

Таблица 2-3

Тип

Распределения

Математическое ожидание

Дисперсия

Коэффициент

Вариации

Биномиальное

Np

Npq

Sqrt(q/np)

Паскаля

kq/p

Kq/p2

Sqrt(1/ kq)

Геометрическое

q/p

Q/p2

Sqrt(1/q)

Пуассона

Sqrt(1/)

Можно ли предложить еще один или несколько показателей - сжатых описаний распределения дискретной СВ? Разумеется, можно.

Первый показатель (математическое ожидание) и второй (дисперсия) чаще всего называют Моментами распределения. Это связано со способами вычисления этих параметров по известному закону распределения - через усреднение значений самой СВ или усреднение квадратов ее значений.

Конечно, можно усреднять и кубы значений, и их четвертые степени и т. д., но что мы при этом получим? Поищем в теории ответ и на эти вопросы.

Начальными моментами k-го порядка случайной величины X обычно называют суммы:

K = (X I)K P(X I); 0 = 0; {2-7}

А Центральными моментами - суммы:

K= (X I -1)K P(X I), {2-8} при вычислении которых усредняются отклонения от центра распределения - математического ожидания.

Таким образом,

1 = 0;

1 = M(X) является параметром Центра распределения;

2 = D(X) является параметром Рассеяния; {2-9}

3 И 3 - описывают Асимметрию распределения;.

4 И 4 - описывают т. н. Эксцесс (выброс) распределения и т. д.

Иногда используют еще один показатель степени разброса СВ - коэффициент вариации V= / M(X), имеющий смысл при ненулевом значении математического ожидания.

Похожие статьи




Моменты распределений дискретных случайных величин. - Распределение вероятности случайных величин

Предыдущая | Следующая