Что такое математическая дисперсия

  • автор:

Дисперсия

В теории вероятностей — мера DX отклонения случайной величины Xот ее математич. ожидания , определяемая равенством: (1) Свойства Д.: если с — действительное число, то в частности D(-X)=D(X). Когда говорят о Д. случайной величины X, всегда предполагают, что существует математич. ожидание при этом Д. DX может существовать (т. е. ‘быть конечной) или не существовать (т. е. быть бесконечной). В современной теории вероятностей математич. ожидание случайной величины определяется через интеграл Лебега по пространству элементарных событий. Однако важную роль играют формулы, выражающие математич. ожидание различных функций от случайной величины Xчерез распределение этой случайной величины на множестве действительных чисел (см. Математическое ожидание). Для Д. DX эти формулы имеют вид: для дискретной случайной величины X, принимающей не более чем счетное число различных значений а; с вероятностями р i= ; для случайной величины X, имеющей плотность распределения вероятностей р(х); в общем случае, где F(x)- функция распределения случайной величины Xи интеграл понимается в смысле Лебега — Стилтьеса или Римана — Стилтьеса. Д. не является единственной мыслимой мерой отклонения случайной величины от ее математич. ожидания. Возможны другие меры отклонения, устроенные по тому же принципу, напр. и т. д., а также меры отклонения, основанные на квантилях. Особая важность Д. объясняется главным образом той ролью, к-рую играет это понятие для предельных теорем. Грубо говоря, оказывается, что если знать математич. ожидание и Д. суммы большого числа случайных величин, то можно полностью определить закон распределения этой суммы: он оказывается нормальным (приблизительно) с соответствующими параметрами (см. Нормальное распределение). Таким образом, важнейшие свойства Д. связаны с выражением для Д. D(X1+. . . + Х п )суммы случайных величин Х 1, . . ., Х п: обозначает ковариацию случайных величин Х i и Xj. Если случайные величины Х 1, . . ., Х п попарно независимы, то cov(Xi, Xj)=0. Поэтому для попарно независимых случайных величин Обратное утверждение неверно: из (2) не следует независимость. Однако, как правило, применение формулы (2) базируется на независимости случайных величин. Строго говоря, для справедливости (2) достаточно лишь, чтобы cov(Xi, Xj) = 0, т. е. чтобы случайные величины X1 . Х п были попарно некоррелированы. Применения понятия Д. развиваются по следующим двум направлениям. Во-первых, применения в области предельных теорем теории вероятностей. Если последовательность случайных величин Х 1, Х 2,. . ., Х п,. .. обладает тем свойством, что при то для любого e>0 при (см. Чебышева неравенство), т. е. практически при больших пслучайная величина Х n совпадает с неслучайной величиной Е Х п. Развитие этих соображений приводит к доказательству закона больших чисел (см. Больших чисел закон), к доказательству состоятельности оценок (см. Состоятельная оценка )в математич. статистике, а также к иным применениям, в к-рых устанавливается сходимость по вероятности случайных величин. Другое применение в области предельных теорем связано с понятием нормировки. Нормировка случайной величины Xпроизводится путем вычитания математич. ожидания и деления на среднее квадратичное отклонение иными словами, рассматривается величина Нормировка последовательности случайных величин обычно необходима для получения сходящейся последовательности законов распределения, в частности сходимости к нормальному закону с параметрами 0 и 1. Во-вторых, применение понятия Д. в математич. статистике при обработке выборок. Если смотреть на случайную величину как на реализацию случайного эксперимента, то произвольное изменение шкалы отсчета приведет к преобразованию случайной величины Xв величину Y=sX+a, где а- любое действительное число, s- положительное число. Поэтому часто имеет смысл рассматривать не один тсоретич. закон распределения F(x)случайной величины X, а тип законов, т. е. семейство законов распределения вида зависящих по крайней мере от двух параметров аи ст. Если ЕX = 0, DX=1, то EY= a, DY=s2. Поэтому параметры теоретич. закона имеют следующий смысл а=ЕY и Отсюда вытекает способ определения этих параметров по выборке. Лит.:[1] Гнеденко Б. В., Курс теории вероятностей, 5 изд., М., 1969; [2] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1-2, М., 1964-67; [3] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975. В. Н. Тутубалин.

ДИСПЕРСИЯ

в теории вероятностей — мера DX отклонения случайной величины Xот ее математич. ожидания , определяемая равенством:

если с — действительное число, то

в частности D(-X)=D(X).

Когда говорят о Д. случайной величины X, всегда предполагают, что существует математич. ожидание при этом Д. DX может существовать (т. е. ‘быть конечной) или не существовать (т. е. быть бесконечной). В современной теории вероятностей математич. ожидание случайной величины определяется через интеграл Лебега по пространству элементарных событий. Однако важную роль играют формулы, выражающие математич. ожидание различных функций от случайной величины Xчерез распределение этой случайной величины на множестве действительных чисел (см. Математическое ожидание). Для Д. DX эти формулы имеют вид:

для дискретной случайной величины X, принимающей не более чем счетное число различных значений а; с вероятностями р i= Р <Х=а i>;

для случайной величины X, имеющей плотность распределения вероятностей р(х);

в общем случае, где F(x)- функция распределения случайной величины Xи интеграл понимается в смысле Лебега — Стилтьеса или Римана — Стилтьеса.

Д.не является единственной мыслимой мерой отклонения случайной величины от ее математич. ожидания. Возможны другие меры отклонения, устроенные по тому же принципу, напр. и т. д., а также меры отклонения, основанные на квантилях. Особая важность Д. объясняется главным образом той ролью, к-рую играет это понятие для предельных теорем. Грубо говоря, оказывается, что если знать математич. ожидание и Д. суммы большого числа случайных величин, то можно полностью определить закон распределения этой суммы: он оказывается нормальным (приблизительно) с соответствующими параметрами (см. Нормальное распределение).

Таким образом, важнейшие свойства Д. связаны с выражением для Д. D(X1+. . . + Х п )суммы случайных величин Х 1, . . ., Х п:

обозначает ковариацию случайных величин Х i и Xj. Если случайные величины Х 1, . . ., Х п попарно независимы, то cov(Xi, Xj)=0. Поэтому для попарно независимых случайных величин

Обратное утверждение неверно: из (2) не следует независимость. Однако, как правило, применение формулы (2) базируется на независимости случайных величин. Строго говоря, для справедливости (2) достаточно лишь, чтобы cov(Xi, Xj) = 0, т. е. чтобы случайные величины X1 ,. Х п были попарно некоррелированы.

Применения понятия Д. развиваются по следующим двум направлениям. Во-первых, применения в области предельных теорем теории вероятностей. Если последовательность случайных величин Х 1, Х 2,. . ., Х п,. .. обладает тем свойством, что при то для любого e>0 при

(см. Чебышева неравенство), т. е. практически при больших пслучайная величина Х n совпадает с неслучайной величиной Е Х п. Развитие этих соображений приводит к доказательству закона больших чисел (см. Больших чисел закон), к доказательству состоятельности оценок (см. Состоятельная оценка )в математич. статистике, а также к иным применениям, в к-рых устанавливается сходимость по вероятности случайных величин. Другое применение в области предельных теорем связано с понятием нормировки. Нормировка случайной величины Xпроизводится путем вычитания математич. ожидания и деления на среднее квадратичное отклонение иными словами, рассматривается величина Нормировка последовательности случайных величин обычно необходима для получения сходящейся последовательности законов распределения, в частности сходимости к нормальному закону с параметрами 0 и 1. Во-вторых, применение понятия Д. в математич. статистике при обработке выборок. Если смотреть на случайную величину как на реализацию случайного эксперимента, то произвольное изменение шкалы отсчета приведет к преобразованию случайной величины Xв величину Y=sX+a, где а- любое действительное число, s- положительное число. Поэтому часто имеет смысл рассматривать не один тсоретич. закон распределения F(x)случайной величины X, а тип законов, т. е. семейство законов распределения вида зависящих по крайней мере от двух параметров аи ст. Если ЕX = 0, DX=1, то EY= a, DY=s 2 . Поэтому параметры теоретич. закона имеют следующий смысл а=ЕY и Отсюда вытекает способ определения этих параметров по выборке.

Лит.:[1] Гнеденко Б. В., Курс теории вероятностей, 5 изд., М., 1969; [2] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1-2, М., 1964-67; [3] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975.

Шпаргалки к экзаменам и зачётам

  • Increase font size
  • Default font size
  • Decrease font size

Математическая статистика — Дисперсия. Её математические свойства и способы расчёта

1) Дисперсия признака обладает рядом математических свойств, которые упрощают технику её расчёта. Если все значения признака уменьшить или увеличится на постоянную величину A , то дисперсия не изменится

2) Если все значения признака увеличить/уменьшить в А раз, то величина дисперсии увеличится/уменьшится в А 2 раз.

3) В мат. Статистике доказано, что для величины А выполняется равенство

т.е. средний квадрат отклонений признака X от произвольной величины А

Свойство минимальности дисперсии. Дисперсия от средней арифметической величины всегда меньше дисперсии, исчисленной от любой другой величины А, причём эта разница равна

Дисперсия признака X равна среднему квадрату значений признака минус квадрат среднего значения признака.

Для упрощения расчёта дисперсии признака в интервальном ряду распределения с равными интервалами, используется «способ моментов»

… Варианты признака А заменяются условными значениями признака x по формуле
h – ширина интервала. A – середина центрального интервала, обладающего наибольшей частотой

2 этап. Рассчитывается дисперсия условий X ’ = m 2- m 1

Квадрат моментов первого порядка

3 этап. Рассчитывается исходной величины Х по формуле

Дисперсия альтернативного признака

Альтернативным называется признак, в котором единицы изучаемой совокупности могут либо обладать, либо не обладать. Наличие признака у единицы совокупности обозначим цифрой 1, а его отсутствие – цифрой 0. P — Долю единиц, обладающих признаком в общей численности всей совокупности, а через q – долю единиц, не обладающих признаком. P+q = 1

Определим среднюю арифметическую величину и дисперсию альтернативного признака.

Среднее значение альтернативного признака равно доле единиц, обладающих признаком

Дисперсия равна произведению доли единиц обладающих на число, дополняющее эту долю до единицы.

Виды дисперсий, правило сложения дисперсий и его использование в анализе взаимосвязей между явлениями.

На вариацию какого-нибудь результативного признака оказывают влияние различные факторы.

Если произвести группировку совокупности по какому-либо факторному признаку, то можно выделить 3 вида дисперсии результативного признака.

Общая дисперсия Характеризует вариацию результативного признака по всей совокупности явлений под влиянием всех факторов

Средняя из внутригрупповых дисперсий отражает вариацию результативного признака под влиянием всех факторных признаков, за исключением факторного признака, положенного в основу группировку

Ni –веса численности x

Межгрупповая дисперсия . Характеризует вариацию результативного признака, обусловленную влиянием только группировочного факторного признака.

В математической статистике доказано, что между этими 3мя видами дисперсий существует тесная связь, которая получила название «Правило сложения дисперсий»

Для оценки степени влияния группировочного факторного признака на результативный признак, рассчитываются следующие показатели:

1) Эмпирический коэффициент детерминации

Обусловлен вариацией группировочного признака .

2) Эмпирический корреляционный коэффициент. Характеризует тесноту связи между результативным и группировочным признаком.
Если при изучении квалификации работников на их заработную плату было получено. Это означает, что 64% вариации заработной платы зависит от их квалификации. Остальные 36% обусловлены влиянием других признаков. Корреляционный коэффициент 0.8 показывает, что связь фактора и зарплаты сильная.

Добавить комментарий

Ваш адрес email не будет опубликован.