ПАРНАЯ РЕГРЕССИЯ - Многомерный статистический анализ

Это метод установления математической зависимости между одной метрической зависимой (критериальной) переменной и одной метрической независимой переменной (предиктором). В значительной мере этот анализ аналогичен определению простой корреляции между двумя переменными. Однако для того, чтобы вывести уравнение, необходимо одну переменную представить как зависимую, а другую как независимую.

С парным регрессионным анализом связаны следующие статистики.

Мы приведем статистики и термины, относящиеся к парному регрессионному анализу.

Модель парной регрессии. Основное уравнение регрессии имеет вид

YI = O + 1XI + EI,

Где Y - Зависимая или критериальная переменная,

Х - независимая переменная или предиктор,

O - точка пересечения прямой регрессии с осью OY,

1 - тангенс угла наклона прямой,

EI - Остаточный член (остаток), связанный с i-м наблюдением, характеризующий отклонение от функции регрессии.

Примечание: в отдельных источниках этот член уравнения называют также ошибочным (ошибкой) или возмущающим членом (возмущением).

Коэффициент детерминации. Тесноту связи измеряют коэффициентом детерминации R2 . Он колеблется в диапазоне между 0 и 1 и указывает на долю полной вариации Y, которая обусловлена вариацией Х.

Вычисляемое (теоретическое) значение Y. Вычисляемое значение Y равно

= A + BX,

Где - вычисляемое значение YI,

Параметры A и B - это вычисляемые оценки O и I соответственно

Коэффициент регрессии. Вычисляемый параметр B Обычно называют ненормированным коэффициентом регрессии.

Диаграмма рассеяния (поле корреляции). Поле корреляции - это графическое представление точек с координатами, определяемыми значениями двух переменных (независимой и зависимой), для всех наблюдений.

Стандартная ошибка уравнения регрессии. Эта статистика SEE представляет собой стандартное отклонение фактических значений Y от теоретических значений.

Стандартная ошибка коэффициента регрессии B. Стандартное отклонение B, Обозначаемое SEB, называется стандартной ошибкой.

Нормированный коэффициент регрессии. Его также называют Бета-коэффициентом, Или Взвешенным бета-коэффициентом. Он показывет изменения Y в зависимости от изменения Х (угол наклона прямой уравнения регрессии) при условии, что все данные нормированы.

Сумма квадратов ошибок. Значения расстояний всех точек до линии регрессии возводят в квадрат и суммируют, получая сумму квадратов ошибок, которая является показателем общей ошибки.

T-статистика. Эту статистику с n-2 степенями свободы можно использовать для проверки нулевой гипотезы, которая утверждает, что между X и Y не существует линейной зависимости или

H0 : 1 = 0

Где t = B/ SEB.

Похожие статьи




ПАРНАЯ РЕГРЕССИЯ - Многомерный статистический анализ

Предыдущая | Следующая