Предпосылки метода наименьших квадратов


 

Классический метод наименьших квадратов, лежащий в основе регрессионного анализа, предъявляет довольно жесткие требования к базе данных и свойствам полученных случайных остатков:

Должны выполняться ряд условий (предпосылки) метода наименьших квадратов.

Пусть выполнена основная предпосылка эконометрического анализа, т.е. моделируемую случайную величину Y можно разбить на две части объясненную и случайную:

Перечислим предпосылки классического метода наименьших квадратов.

 

1). Зависимая переменная Yi и возмущения Ei – это случайные величины, а вектор объясняющих переменных Хi – неслучайный (детерминированный).

2). Математическое ожидание возмущений Ei равно 0:

M[Ei]=0

3). Дисперсия возмущений Ei (дисперсия зависимой переменной Yi) постоянна:

(4.12)

где Еn – матричная единица.

Это условие называется гомоскедастичностью или равноизменчивостью возмущения Ei (зависимой переменной Yi). На рисунке 4.1. показан случай нарушения свойства гомоскедастичности: , т.е. для разных диапазонов изменения х дисперсия существенно изменяется (зависит от х).

 

 

4). Возмущения Ei и Ej (или наблюдение Yi и Yj) не корректированы:

 

M(Ei·Ej)= 0 ; i¹j (4.13)

 

5). Ранг матрицы плана X[Nxn] должен быть не более числа опытов N:

 

r=k < N,

где, k – число членов регрессии. Ранг r равен числу линейно независимых столбцов матрицы X.

6). Возмущения Ei (или зависимая переменная Yi) есть нормально распределенная случайная величина

 

E~N(0;s2En).(4.14)

 

При выполнении всех предпосылок 1…5 и 6 модель называется классической нормальной регрессионной моделью.

Замечание 1: Формально уравнение регрессии можно построить и без предпосылки s о нормальном ЗР? возмущений Ei. Однако при этом модель не имеет практического смысла, поскольку невозможно оценить:

- адекватность;

- точность;

- доверительные интервалы оценок коэффициентов и Y.

В этих операциях используется НЗР ? (критерий Стьюдента)

Замечание 2: Для получения адекватного, хорошего интерпретируемого (с возможностью раздельной оценки вклада каждого фактора) уравнения регрессии с необходимой точностью требуется выполнение еще одной седьмой предпосылки.

 

7). Отсутствие мультиколлинеарности.

Мультиколлениарность – это наличие линейной корреляции объясняющих переменных между собой.

Предпосылки метода наименьших квадратов проверяются как соответствующие статистические гипотезы.

 



Дата добавления: 2020-12-11; просмотров: 485;


Поиск по сайту:

Воспользовавшись поиском можно найти нужную информацию на сайте.

Поделитесь с друзьями:

Считаете данную информацию полезной, тогда расскажите друзьям в соц. сетях.
Poznayka.org - Познайка.Орг - 2016-2024 год. Материал предоставляется для ознакомительных и учебных целей.
Генерация страницы за: 0.007 сек.