Проблемы линейных регрессионных моделей, Предпосылки метода наименьших квадратов (условия Гаусса-Маркова) - Моделирование в эконометрике

    1. Предпосылки метода наименьших квадратов. 2. Проблема мультиколлинеарности. 3. Гомоскедатичность и гетероскедатичность. Линейные регрессионные модели с гетероскедатичными и автокоррелированными остатками. 4. Регрессионные модели с переменной структурой (фиктивные переменные)
Предпосылки метода наименьших квадратов (условия Гаусса-Маркова)
    1. Математическое Ожидание Случайного Отклонения Равно Нулю Для Всех Наблюдений. Данное условие означает, что случайное отклонение в среднем не оказывает влияния на зависимую переменную. В каждом конкретном наблюдении случайный член может быть либо положительным, либо отрицательным, но он не должен иметь систематического смещения. 2. Дисперсия Случайных Отклонений Постоянна Для Любых Наблюдений. Это условие подразумевает, что несмотря на то, что при каждом конкретном наблюдении случайное отклонение может быть либо большим, либо меньшим, не должно быть некой априорной причины, вызывающей большую ошибку (отклонение).

Выполнимость данной предпосылки называется гомоскедастичностью (постоянством дисперсии отклонений). Невыполнимость данной предпосылки называется гетероскедастичностью (непостоянством дисперсии отклонений).

3. Случайные Отклонения UI И UJ Являются Независимыми Друг От Друга Для Ij. Выполнимость данной предпосылки предполагает, что отсутствует систематическая связь между любыми случайными отклонениями. Другими словами, величина и определенный знак любого случайного отклонения не должны быть причинами величины и знака любого другого отклонения. Выполнимость данной предпосылки влечет следующее соотношение:

Поэтому, если данное условие выполняется, то говорят об отсутствии автокорреляции.

4. Случайное Отклонение Должно Быть Независимо От Объясняющих Переменных.

Обычно это условие выполняется автоматически, если объясняющие переменные не являются случайными в данной модели. Данное условие предполагает выполнимость следующего соотношения:

5. Модель Является Линейной Относительно Параметров.

Теорема Гаусса-Маркова. Если предпосылки 1-5 выполнены, то оценки, полученные по МНК, обладают следующими свойствами:

    1) Оценки являются несмещенными, то есть М(b0) = 0, М(b1) = 1, где b0, b1) - коэффициенты эмпирического уравнения регрессии, а 0, 1 - их теоретические прототипы. Это вытекает из первой предпосылки и говорит об отсутствии систематической ошибки в определении положения линии регрессии. 2) Оценки состоятельны, так как дисперсия оценок параметров при возрастании числа n наблюдений стремится к нулю. Другими словами, при увеличении объема выборки надежность оценок увеличивается (коэффициенты теоретического и эмпирического уравнений регрессии практически совпадают). 3) Оценки эффективны, то есть они имеют наименьшую дисперсию по сравнению с любыми оценками данных параметров, линейными относительно величин yI.

Если предпосылки 2 и 3 нарушены, то есть дисперсия отклонений непостоянна и (или) значения случайных отклонений связаны друг с другом, то свойства несмещенности и состоятельности сохраняются, но свойство эффективности - нет.

Наряду с выполнимостью указанных предпосылок при построении классических линейных регрессионных моделей делаются еще некоторые предположения. Например:

    - объясняющие переменные не являются СВ; - случайные отклонения имеют нормальное распределение; - число наблюдений существенно больше числа объясняющих переменных.

Одним из условий регрессионной модели является предположение о линейной независимости объясняющих переменных, т. е., решение задачи возможно лишь тогда, когда столбцы и строки матрицы исходных данных линейно независимы. Для экономических показателей это условие выполняется не всегда. Линейная или близкая к ней связь между факторами называется Мультиколлинеарностью и приводит к линейной зависимости нормальных уравнений, что делает вычисление параметров либо невозможным, либо затрудняет содержательную интерпретацию параметров модели. Мультиколлинеарность может возникать в силу разных причин. Например, несколько независимых переменных могут иметь общий временной тренд, относительно которого они совершают малые колебания. В частности, так может случиться, когда значения одной независимой переменной являются датированными значениями другой. Считают явление мультиколлинеарности в и сходных данных установленным, если коэффициент парной корреляции между двумя переменными больше 0,8. Чтобы избавиться от мультиколлинеарности, в модель включают лишь один из линейно связанных между собой факторов, причем тот, который в большей степени связан с зависимой переменной.

    - В качестве критерия мультиколлинеарности может быть принято соблюдение следующих неравенств: - RYxi > RXixk, RYxk > RXixk, RXixk < 0,8. - если приведенные неравенства (или хотя бы одно из них) не выполняются, то в модель включают тот фактор, который наиболее тесно связан с Y.

Похожие статьи




Проблемы линейных регрессионных моделей, Предпосылки метода наименьших квадратов (условия Гаусса-Маркова) - Моделирование в эконометрике

Предыдущая | Следующая