Властивості оцінювачів за МНК


Властивості оцінювачів за МНК для множинної регресійної моделі аналогічні властивостям для двовимірного випадку. А саме:

1. Тривимірна поверхня (площина) регресії проходить через середні , і . Це очевидно з (5.4.3). Ця властивість допускає узагальнення на випадок лінійної регресійної моделі з k змінними (один регресант і (k–1) регресорів):

. (5.4.20)

Для цієї моделі виконується

. (5.4.21)

2. Середня величина оцінки дорівнює середній величині дійсних , що легко доводиться:

(5.4.22)

Підсумовуючи обидві частини (5.4.22) за об’ємом усієї вибірки і поділяючи на N, одержуємо . При цьому використовується відома властивість . Зауважимо також, що з (5.4.22) випливає рівність

, (5.4.23)

де .

Отже, SRF (5.4.1) може бути поданий у формі відхилень

. (5.4.24)

3. . Ця рівність є наслідком МНК.

4. Залишки некорельовані з і , тобто .

5. Залишки некорельовані з , тобто . Цю властивість легко довести, якщо обидві частини рівності помножити на і підсумувати за об’ємом вибірки з урахуванням властивості 4.

6. Із (5.4.12) і (5.4.15) бачимо, що зі зростанням до 1 кореляційного коефіцієнта R23 між Х2 і Х3 дисперсії і при фіксованих значеннях s2 і , також зростають. Коли R23=1 (точна колінеарність), ці дисперсії стають необмеженими. Тобто зі зростанням R23 значення і стають усе більш невизначеними.

7. Із (5.4.12) і (5.4.15) зрозуміло, що для даних величин R23, , дисперсії коефіцієнтів і прямо пропорційні s2, тобто зі зростанням s2 вони зростають. Водночас для даних величин s2 і R23 дисперсія обернено пропорційна , тобто чим більше змінюється за вибіркою Х2, тим менша дисперсія і, отже, тим точніше можна оцінити . Аналогічний висновок можна зробити про дисперсію .

8. При прийнятих гіпотезах класичної лінійної регресійної моделі можна показати, що оцінки за МНК частинних коефіцієнтів регресії не тільки лінійні й незміщені, але й мають якнайменшу дисперсію в класі лінійних незміщених оцінок, тобто вони мають властивість BLUE.

 

5.5. Коефіцієнт детермінації R2і коефіцієнт кореляції множинної регресійної моделі

У випадку моделі з двома змінними ми бачимо, що коефіцієнт

 

виміряв якість підгонки рівняння регресії, точніше, він дав співвідношення або відсоток у загальній варіації Y, пояснений за рахунок пояснювальної змінної Х. Даний підхід може бути узагальненим на випадок моделей, які містять більше двох змінних. Так, у моделі з трьома змінними нас цікавить, яка частина у варіації У пояснюється за рахунок змінних Х2 і Х3. У цьому випадку коефіцієнт позначається R2 і називається коефіцієнтом детермінації множинної регресії. Концептуально він наближений до R2.

Для виведення R2 можна скористатися процедурою виведення R2, описаною в підрозд. 2.5. Пригадаємо, що

. (5.5.1)

Переходячи до малих букв, цю рівність можна записати у вигляді

. (5.5.2)

Підносячи (5.5.2) до квадрата й підсумовуючи, одержуємо

. (5.5.3)

Ця рівність показує, що загальна сума квадратів (TSS) дорівнює поясненій сумі квадратів (ESS) + сума квадратів залишків (RSS). Підставляючи замість вираз (5.4.19), одержуємо

.  

Звідси одержуємо вираз для ESS пояснюючої суми квадратів:

. (5.5.4)

За визначенням маємо

. (5.5.5)

Зазначимо, що можна отримати й інший вираз для R2, якщо застосувати (5.5.3) і розділити обидві частини на . Одержимо

.  

R2, як і R2, лежить між 0 і 1. Якщо R2=1, то лінія регресії на 100% пояснює варіацію в Y. Якщо ж R2=0, модель нічого не пояснює у варіації Y. Проте R2 зазвичай лежить між цими граничними величинами. Вважається, що підгонка моделі тим краща, чим більше R2 наближається до 1.

Пригадаємо, що в моделі з двома змінними величина r позначала степінь лінійного зв’язку між двома змінними. У моделі з трьома й більше змінними аналогом r є коефіцієнт множинної кореляції, що позначається R. Він позначає степінь асоціативності між Y і всіма пояснювальними змінними одночасно. На відміну від r, який може бути і негативним, R набуває завжди позитивних значень. На практиці, проте, R відіграє незначну роль, більш важлива величина R2.

Зазначимо зв’язок між R2 і дисперсіями частинних коефіцієнтів регресії в моделі множинної регресії з k змінними (5.4.20):

, (5.5.6)

де – частинний коефіцієнт регресії при регресорі , а R2 в регресії по тих (k–2) змінних, що залишилися регресорами (у регресійній моделі з k змінними є (k–1) регресор). Ця рівність є узагальнення формул (5.4.12), (5.4.15) для моделі з трьома змінними (один регресант і два регресори).

 



Дата добавления: 2016-07-27; просмотров: 1697;


Поиск по сайту:

Воспользовавшись поиском можно найти нужную информацию на сайте.

Поделитесь с друзьями:

Считаете данную информацию полезной, тогда расскажите друзьям в соц. сетях.
Poznayka.org - Познайка.Орг - 2016-2024 год. Материал предоставляется для ознакомительных и учебных целей.
Генерация страницы за: 0.01 сек.