Автор работы: Пользователь скрыл имя, 16 Января 2014 в 22:42, реферат
Невозможность использования «классических» подходов при построении эконометрических моделей в условиях плохой обратимости матрицы (X¢X) обусловливает необходимость применения при оценке их параметров специальных процедур и методов, которые позволяют снизить отрицательное влияние высокой корреляции между объясняющими переменными на точность и достоверность получаемых оценок.
Целью данной работы является изучение проблем мультиколлинеарности в регрессионных моделях, исследование некоторых приемов и методов оценки коэффициентов эконометрической модели в условиях сильной корреляционной зависимости (мультиколлинеарности) между объясняющими переменными и применение их в конкретных практических ситуациях.
Введение
3
Глава 1. Причины возникновения, признаки обнаружения и методы устранения мультиколлинеарности
4
Установление наличия мультиколлинеарности
4
Причины возникновения мультиколлинеарности и её последствия
6
Методы устранения мультиколлинеарности
8
Глава 2. Отбор факторов в модель множественной регрессии
12
Метод исключения факторов
12
Пошаговый регрессионный анализ
17
Заключение
22
Литература
Содержание
Введение |
3 |
Глава 1. Причины возникновения, признаки обнаружения и методы устранения мультиколлинеарности |
4 |
|
4 |
|
6 |
|
8 |
Глава 2. Отбор факторов в модель множественной регрессии |
12 |
|
12 |
|
17 |
Заключение |
22 |
Литература |
23 |
Введение.
Существование сильной линейной зависимости между переменными, входящими в правую часть эконометрической модели и характеризующейся близостью значений коэффициентов парной корреляции ряда столбцов матрицы Х к единице, вызывает целый ряд проблем при оценке коэффициентов этой модели.
Это явление делает матрицу X¢X плохо обусловленной (ее детерминант становится близким, а в пределе равным нулю), и в этом случае, МНК и методы оценки коэффициентов модели, не могут быть использованы. Плохая обусловленность матрицы X¢X своим приводит к ухудшению точности оценок коэффициентов модели, росту их дисперсий. Оценки коэффициентов модели становятся чрезвычайно чувствительными к незначительным изменениям исходных данных (значений элементов вектора у и матрицы X), а также к ошибкам округлений числовых данных расчетов, неизбежным при обращении матрицы X¢X [6].
Невозможность использования «классических» подходов при построении эконометрических моделей в условиях плохой обратимости матрицы (X¢X) обусловливает необходимость применения при оценке их параметров специальных процедур и методов, которые позволяют снизить отрицательное влияние высокой корреляции между объясняющими переменными на точность и достоверность получаемых оценок.
Целью данной работы является изучение проблем мультиколлинеарности в регрессионных моделях, исследование некоторых приемов и методов оценки коэффициентов эконометрической модели в условиях сильной корреляционной зависимости (мультиколлинеарности) между объясняющими переменными и применение их в конкретных практических ситуациях.
Глава 1. Причины возникновения, признаки обнаружения и методы устранения мультиколлинеарности
Наибольшие
затруднения в использовании
аппарата множественной регрессии
возникают при наличии
Мультиколлинеарностью для линейной множественной регрессии называется наличие линейной зависимости между факторными переменными, включёнными в модель.
В решении проблемы мультиколлинеарности можно выделить несколько этапов:
При нарушении правил, лежащих в основе построения линейной модели множественной регрессии возникает мультиколлинеарность.
Мультиколлинеарность
может проявляться в
Однако в экономических
исследованиях
Мультиколлинеарность в
матричном виде – это зависимость
между столбцами матрицы
Если не учитывать единичный вектор, то размерность данной матрицы равна . Если ранг матрицы Х меньше n, то в модели присутствует полная или строгая мультиколлинеарность. Но на практике полная мультиколлинеарность почти не встречается.
Чем сильнее мультиколлинеарность факторных переменных, тем менее надежной является оценка распределения суммы объясненной вариации по отдельным факторам с помощью метода наименьших квадратов.
Конкретных методов
Корреляционная матрица факторных переменных – это симметричная относительно главной диагонали матрица линейных коэффициентов парной корреляции факторных переменных: , где rij – линейный коэффициент парной корреляции между i-м и j-ым факторными переменными, .
На диагонали корреляционной матрицы находятся единицы, потому что коэффициент корреляции факторной переменной с самой собой равен единице.
При рассмотрении данной матрицы с целью выявления мультиколлинеарных факторов руководствуются следующими правилами:
1) если в корреляционной
матрице факторных переменных
присутствуют коэффициенты
2) вычисляют собственные числа корреляционной матрицы факторных переменных λmin и λmax. Если λmin<10-5, то в модели регрессии присутствует мультиколлинеарность. Если отношение , то также делают вывод о наличии мультиколлинеарных факторных переменных;
3) вычисляют определитель корреляционной матрицы факторных переменных. Если его величина очень мала, то в модели регрессии присутствует мультиколлинеарность [7].
Дополнительные
признаки обнаружения
Причинами возникновения мультиколлинеарности можно считать следующие:
Под воздействием мультиколлинеарности в модели могут возникнуть следующие изменения:
Включение в модель мультиколлинеарных факторов нежелательно по нескольким причинам:
1) основная гипотеза
о незначимости коэффициентов
множественной регрессии может
подтвердиться, но сама модель
регрессии при проверке с
2) полученные
оценки коэффициентов модели
множественной регрессии могут
быть неоправданно завышены
3) добавление или исключение из исходных данных одного-двух наблюдений оказывает сильное влияние на оценки коэффициентов модели;
4) мультиколлинеарные
факторы, включённые в модель
множественной регрессии,
Если оцененную модель регрессии предполагается использовать для изучения экономических связей, то устранение мультиколлинеарных факторов является обязательным, потому что их наличие в модели может привести к неправильным знакам коэффициентов регрессии.
При построении прогноза на
основе модели регрессии с
Для устранения или уменьшения мультиколлинеарности используется ряд методов.
1) Один из наиболее простых методов устранения мультиколлинеарности состоит в получении дополнительных данных. Однако на практике в некоторых случаях его реализация может быть весьма затруднительна [7].
2) Метод преобразования переменных, заключается в том, что вместо значений всех переменных, участвующих в модели (и результативной в том числе) можно взять их логарифмы: ln y = a+b1·ln x1+ b2·ln x2+ε. Однако данный способ также не способен гарантировать полного устранения мультиколлинеарности факторов [4,7].
3) Метод сравнения значений линейных коэффициентов корреляции, состоит в том, что из двух объясняющих переменных, имеющих высокий коэффициент корреляции (больше 0,8), одну переменную исключают из рассмотрения. При этом, какую переменную оставить, а какую удалить из анализа, решают в первую очередь на основании экономических соображений. Если с экономической точки зрения ни одной из переменных нельзя отдать предпочтение, то оставляют ту из двух переменных, которая имеет больший коэффициент корреляции с зависимой переменной [ 3].
4) Метод включения
факторов заключается в том,
что в модель включаются
На первом шаге в модель вводится тот фактор, который имеет больший коэффициент корреляции с зависимой переменной. На втором и последующих шагах в модель включается фактор, который имеет наибольший коэффициент корреляции с остатками модели. После включения каждого фактора в модель рассчитываются её характеристики и модель проверяется на достоверность [7].
Метод пошагового включения осуществляется по следующему алгоритму:
1. Из всех факторных переменных в модель регрессии включаются те переменные, которым соответствует наибольший модуль линейного коэффициента парной корреляции с результативной переменной.
2. При добавлении в
модель регрессии новых
Информация о работе Отбор факторов в модель множественной регрессии