Модель множественной линейной регрессии, Линейная множественная регрессия - Моделирование в эконометрике

    1. Определение параметров модели парной линейной регрессии методом наименьших квадратов 2. Оценка тесноты связи между переменными 3. Оценка качества уравнения регрессии 4. Предпосылки метода наименьших квадратов
Линейная множественная регрессия

В действительности каждое явление определяется действием не одной причины, а нескольких, а точнее целым комплексом причин. Сложное сочетание причин приводит к различным результатам. Например, действуя в одном и том же направлении, они усиливают действие, действуя в противоположном направлении - ослабляют друг друга. Возникает вопрос об измерении воздействия комплекса причин на изучаемое явление. Задача изучения зависимости одной зависимой переменной от нескольких объясняющих переменных X1, X2, ..., XM в условиях конкретного времени решается с помощью множественного или многофакторного регрессионного анализа. Рассмотрим линейное соотношение между переменной Y и объясняющими переменными X1, X2, ..., XM.

Коэффициенты BK, k = 0, 1, 2, ..., m называются параметрами регрессии. Постоянная регрессии B0 выполняет в уравнении регрессии функцию выравнивания. Она определяет точку пересечения гиперповерхности регрессии с осью Y. Значения B1, B2, ..., BM являются оценками коэффициентов регрессии. Коэффициент регрессии BK измеряет усредненное частное влияние изменения переменной XK, k = 1, 2, ..., m, в предположении, что остальные объясняющие переменные (x1, X2, ..., XK-1, XK+1, ..., XM) остаются без изменения на постоянном уровне. Поэтому с точки зрения статистической методологии нет различия между множественной и частной регрессией. По этой причине в литературе параметры BK, k = 1, 2, ..., m называются как коэффициентами множественной, так и частной регрессии. Но заключение о том, что для определения коэффициентов регрессии достаточно определить несколько простых линейных регрессий Y на XK, k = 1, 2, ..., m является ошибочным. Для достоверных оценок нужны методы оценивания, учитывающие многосторонние связи совместно зависимых переменных. Наиболее часто используют двухшаговый метод наименьших квадратов, который является обобщением метода наименьших квадратов.

Рассмотрим сначала линейную множественную регрессию с двумя объясняющими переменными:

Метод наименьших квадратов приводит к условию:

, откуда

После дифференцирования S(b0, B1, B2) по каждому из параметров B0, B1, B2 и приравнивания к нулю всех частных производных функции S(b0, B1, B2) по каждому из параметров B0, B1, B2, получаем следующую систему нормальных уравнений:

Решить полученную систему нормальных уравнений относительно неизвестных параметров можно по формулам Крамера.

Коэффициенты множественной или частной регрессии можно представить через дисперсии и ковариации:

Где

Пример

Построим линейную множественную регрессию общей суммы налогов и платежей на общую сумму поступлений по налогу на добавленную стоимость и налогу на прибыль (доход).

Время наблюдения

Y (общая сумма налогов и платежей в консолидированный бюджет РФ), млрд. руб.

X1 (общая сумма поступлений в консолидированный бюджет РФ по налогу на прибыль), млрд. руб.

X2 (общая сумма поступлений в консолидированный бюджет РФ по НДС), млрд. руб.

Январь

38,9

5,6

13,4

Февраль

45,3

6,7

15,4

Март

61,1

13,1

16,7

I квартал

145,3

25,3

45,5

Апрель

70,4

16,9

16,2

Май

63,8

18,4

13

Июнь

67,7

19,1

15

II квартал

201,9

54,4

44,2

I полугодие

347,2

79,8

89,7

Июль

70,6

16,1

20,8

Август

78,9

23,3

16,4

Сентябрь

73,2

19,2

17,4

III квартал

222,7

58,6

54,6

9 месяцев

569,9

138,3

144,3

Октябрь

78,1

16,1

23,6

Ноябрь

103

31,8

23,9

Декабрь

133,4

35,4

34,4

IV квартал

314,5

83,3

81,9

II полугодие

537,2

141,9

136,5

Январь-декабрь

884,4

221,6

226,1

Уy

Уx1

Уx2

Уx1y

Уx2y

Уx12

Уx22

Уx1X2

884,4

221,6

226,1

18614,15

18154,57

4931,19

4667,94

4605,29

Полученные значения B1 и B2 подставим в уравнение

И выразим B0.

Для описания линейной множественной регрессии с количеством объясняющих переменных больше двух будем использовать матричное исчисление. Пусть

, или

Введем фиктивную переменную X0 полагая XI0 = 1, i=1, 2, ..., n.

Положим

Где XIj - переменная для обозначения переменной XJ при наблюдении I, J = 1, 2, ..., M; I = 1, 2, ..., N.

Тогда уравнение регрессии запишется следующим образом:

Применяя метод наименьших квадратов, получим:

,

Где АT - матрица, транспонированная к А. Подставляя вместо y в последнюю формулу Xb, получаем

Дифференцируя последнее выражение по B и приравнивая его к нулю, получаем:

Нормальное уравнение имеет следующий вид:

Если матрица XTX обратима, то

Похожие статьи




Модель множественной линейной регрессии, Линейная множественная регрессия - Моделирование в эконометрике

Предыдущая | Следующая