Автор работы: Пользователь скрыл имя, 27 Ноября 2014 в 20:08, реферат
Однією з чотирьох умов, які необхідні для оцінювання параметрів загальної лінійної моделі 1МНК, є умова (4.5), яка стосується матриці вихідних даних X. Ця матриця має розміри і повинна мати ранг m, тобто серед пояснювальних змінних моделі не повинно бути лінійно залежних. Проте оскільки економічні показники, які входять до економетричної моделі як пояснювальні змінні, на практиці дуже часто пов'язані між собою, то це може стати перешкодою для оцінювання параметрів моделі 1МНК та істотно вплинути на якість економетричного моделювання.
Поняття мультиколінеaрності
Однією з чотирьох умов, які необхідні для оцінювання параметрів загальної лінійної моделі 1МНК, є умова (4.5), яка стосується матриці вихідних даних X. Ця матриця має розміри і повинна мати ранг m, тобто серед пояснювальних змінних моделі не повинно бути лінійно залежних. Проте оскільки економічні показники, які входять до економетричної моделі як пояснювальні змінні, на практиці дуже часто пов'язані між собою, то це може стати перешкодою для оцінювання параметрів моделі 1МНК та істотно вплинути на якість економетричного моделювання.
Тому в економетричних дослідженнях вельми важливо з'ясувати, чи існують між пояснювальними змінними взаємозв'язки, які називають мультиколінеарністю.
Означення 6.1. Мультиколінеарність означає існування тісної лінійної залежності, або кореляції, між двома чи більше пояснювальними змінними.
Вона негативно впливає на кількісні характеристики економетричної моделі або робить її побудову взагалі неможливою.
Так, мультиколінеарність пояснювальних змінних призводить до зміщення оцінок параметрів моделі, через що з їх допомогою не можна зробити коректні висновки про результати взаємозв'язку залежної і пояснювальних змінних. У крайньому разі, коли між пояснювальними змінними існує функціональний зв'язок, оцінити вплив цих змінних на залежну взагалі неможливо. Тоді для оцінювання параметрів моделі метод найменших квадратів не придатний, оскільки матриця буде виродженою.
Нехай зв'язок між пояснювальними змінними не функціональний, проте статистично істотний. Тоді попри те, що оцінити параметри методом найменших квадратів теоретично можливо, знайдена оцінка може призвести до таких помилкових значень параметрів, що сама модель стане беззмістовною.
Основні наслідки мультиколінеарності.
1. Падає точність оцінювання, яка виявляється так:
а) помилки деяких конкретних оцінок стають занадто великими;
б) ці помилки досить корельовані одна з одною;
в) дисперсії оцінок параметрів різко збільшуються.
2. Оцінки параметрів деяких
змінних моделі можуть бути
незначущими через наявність
їх взаємозв'язку з іншими
3. Оцінки параметрів стають досить чутливими до обсягів сукупності спостережень. Збільшення сукупності спостережень іноді може спричинитися до істотних змін в оцінках параметрів.
З огляду на перелічені наслідки мультиколінеарності при побудові економетричної моделі потрібно мати інформацію про те, що між пояснювальними змінними не існує мультиколінеарністі.
Ознаки мультиколінеарності
1. Коли серед парних
коефіцієнтів кореляції
. (6.1)
2. Якщо
= 0, то існує повна мультиколінеарність,
а коли
= 1, мультиколінеарність відсутня. чим
ближче
до нуля, тим певніше можна стверджувати,
що між пояснювальними змінними існує
мультиколінеарність. Незважаючи на те,
що на числове значення
впливає дисперсія пояснювальних змінних,
цей показник можна вважати
3. Якщо в економетричній моделі знайдено мале значення параметра при високому рівні частинного коефіцієнта детермінації і при цьому F-критерій істотно відрізняється від нуля, то це також свідчить про наявність мультиколінеарності.
4. Коли коeфіцієнт частинної детермінації , який обчислено для регресійних залежностей між однією пояснювальною змінною та іншими, має значення, яке близьке до одиниці, то можна говорити про наявність мультиколінеарності.
5. Нехай при побудові
економетричної моделі на
Усі ці ознаки мультиколінеарності мають один спільний недолік: ні одна з них чітко не розмежовує випадки, коли мультиколінеарність істотна і коли нею можна знехтувати.
Алгоритм Фаррара - Глобера
Найповніше дослідити мультиколінеарність можна з допомогою алгоритму Фаррара — Глобера. Цей алгоритм має три види статистичних критеріїв, згідно з якими перевіряється мультиколінеарність всього масиву незалежних змінних ( - «хі» — квадрат); кожної незалежної змінної з рештою змінних (F-критерій); кожної пари незалежних змінних (t-критерій).
Усі ці критерії при порівнянні з їх критичними значеннями дають змогу робити конкретні висновки щодо наявності чи відсутності мультиколінеарності незалежних змінних.
Опишемо алгоритм Фаррара — Глобера.
Крок 1. Стандартизація (нормалізація) змінних.
Позначимо вектори незалежних
змінних економетричної моделі через
. Елементи стандартизованих векторів
обчислио за формулою:
де — число спостережень ;
— число пояснювальних змінних, ;
— середнє арифметичне k-ї пояснювальної змінної;
— дисперсія k-ї пояснювальної змінної.
Крок 2. Знаходження кореляційної матриці
де — матриця стандартизованих незалежних (пояснювальних) змінних, — матриця, транспонована до матриці .
Крок 3. Визначення критерію
(«хі»-квадрат):
(6.4)
де — визначник кореляційної матриці r.
Значення цього критерію порівнюється з табличним при ступенях свободи і рівні значущості . Якщо то в масиві пояснювальних змінних існує мультиколінеарність.
Крок 4. Визначення оберненої матриці:
(
Крок 5. Очислення F-критеріїв:
де — діагональні елементи матриці C. Фактичні значення критеріїв порівнюються з табличними при n – m і m – 1 ступенях свободи і рівні значущості a. Якщо Fkфакт > Fтабл, то відповідна k-та незалежна змінна мультиколінеарна з іншими.
Коефіцієнт детермінації для
кожної змінної
Крок 6. Знаходження частинних коефіцієнтів
кореляції:
де — елемент матриці C, що міститься в k-му рядку і j-му стовпці; i — діагональні елементи матриці C.
Крок 7. Обчислення t-критеріїв:
Фактичні значення критеріїв порівнюються з табличними при ступенях свободи і рівні значущості . Якщоtkj(ф) > t табл, то між незалежними змінними і існує мультиколінеарність.
Найпростіше позбутися мультиколінеарності в економетричній моделі можна, відкинувши одну зі змінних мультиколінеарної пари. Але на практиці вилучення якогось чинника часто суперечить логіці економічних зв'язків. Тоді можна перетворити певним чином пояснювальні змінні моделі:
а) взяти відхилення від середньої;
б) замість абсолютних значень взяти відносні;
в) стандартизувати пояснювальні змінні
і т. iн.
За наявності мультиколінеарності змінних потрібно звертати увагу й на специфікацію моделі. Іноді заміна однієї функції іншою, якщо це не суперечить апріорній інформації, дає змогу уникнути явища мультиколінеарності.
Коли жодний з розглянутих способів не дає змоги позбутися мультиколінеарності, то параметри моделі слід оцінювати за методом головних компонентів.
Метод головних компонентів
Цей метод призначений для оцінювання моделей великого розміру, а також для оцінки параметрів моделі, якщо до неї входять мультиколінеарні змінні.
Існують різні модифікації методу головних компонентів, які різняться між собою залежно від того, що береться за основу при визначенні ортогональних змінних — коваріаційна чи кореляційна матриця незалежних змінних.
Нехай маємо матрицю Х, яка описує незалежні змінні моделі. Оскільки спостереження, що утворюють матрицю Х, як правило, корельовані між собою, то можна поставити питання про кількість реально незалежних змінних, які входять до цієї матриці.
Нехай нова змінна запишеться:
У матричній формі
де — вектор значень нової змінної; — m-вимірний власний вектор матриці .
Суму квадратів елементів вектора
подамо у вигляді:
(6.
Звідси необхідно вибрати такий
вектор
, який максимізуватиме
, але на вектор
треба накласти обмеження, щоб він не став
дуже великим. Тому ми його нормуємо, наклавши
обмеження:
Оскільки Z1 = Xa1, то максимізація a1 буде максимізувати Z1, а Z1 характеризує вклад змінної Z1 в загальну дисперсію.
Задача тепер полягає в тому, щоб максимізувати за умов (6.12). Побудуємо функцію Лагранжа:
де — множник Лагранжа.
Узявши
, дістанемо
. (
Звідси бачимо, що — власний вектор матриці , який відповідає характеристичному числу .
Підставивши значення (6.13) у
(6.11), дістанемо:
(6.
Отже, потрібно для значення вибрати найбільший характеристичний корінь матриці . За відсутності мультиколінеарності матриця буде додатно визначеною і, відповідно, її характеристичні корені будуть додатними. Першим головним компонентом матриці X буде вектор Z1.
Визначимо тепер . При цьому вектор має максимізувати вираз за таких умов:
1) ;
2)
Друга умова забезпечить відсутність кореляції між і , бо коваріація між і подається у вигляді , причому вона дорівнює нулю лише тоді, коли .
Для розв'язування цієї задачі функцію Лагранжa запишемо у вигляді
де і — множники Лагранжa.
Узявши і , дістанемо де для значення треба вибрати другий за величиною характеристичний корінь матриці .
Цей процес триває доти, доки всі m характеристичних значень матриці не будуть знайдені; знайдені m власних векторів матриці об'єднаємо в ортогональну матрицю:
.
Отже, головні компoненти матриці X задаються матрицею
розміром n ´ m.
. (6.16)
Вираз (6.16) означає, що головні
компоненти дійсно попарно некорельовані,
а їх дисперсії визначаються так:
(6.17)
Співвідношення характеризують пропорційний внесок кожного з векторів у загальну варіацію змінних X, причому оскільки ці компоненти ортогональні, сума всіх внесків дорівнює одиниці.
Зауважимо, що вектори вихідних даних (матриця X) повинні мати однакові одиниці вимірювання, бо в противному разі дуже важко дати змістовне тлумачення поняттю загальної варіації змінних X і розкладанню цієї варіації на складові, виконаному відповідно до внеску кожного з векторів, якими подаються головні компоненти.
Іноді буває важко надати конкретного змісту знайденим головним компонентам. Для цього можна обчислити коефіцієнти кореляції кожного компонента з різними змінними X. Так, наприклад, візьмемо перший головний компонент Z1 і знайдемо коефіцієнти його кореляції її з усіма змінними X. Для цього потрібно обчислити перехресні добутки між головним компонентом Z1 і кожною з пояснювальних змінних X. Оскільки