Результатирующие и объясняющие переменные
Автор работы: Пользователь скрыл имя, 06 Ноября 2014 в 18:27, реферат
Описание работы
Регрессивный анализ занимает центральное место во всем математико-статистическом инструментарии эконометрики. Отметим самые основные понятия и определения регрессивного анализа.
Содержание работы
1. Основные понятия и определения регрессивного анализа…… стр. 1
2. Пример………………………………………….……………………...... стр. 2-3
Список используемой литературы……………………………………… стр. 4
Файлы: 1 файл
домодедовский
филиал
негосударственного образовательного
учреждения
высшего профессионального
образования
«российский новый университет»
реферат
по дисциплине:
Эконометрика
Тема: «Результирующие
и объясняющие переменные»
Выполнила:
Студентка
4 курса
Заочной
формы обучения
Экономического
факультета
группы
ФЗ-11
Снитовец
Юлии Владимировны
Старший
преподаватель
Новикова
Людмила Викторовна
2014г.
Содержание:
1. Основные понятия
и определения регрессивного анализа……
стр. 1
2. Пример………………………………………….……………………......
стр. 2-3
Список используемой литературы………………………………………
стр. 4
Основные понятия и
определения регрессивного анализа.
Регрессивный анализ
занимает центральное место во всем математико-статистическом
инструментарии эконометрики. Отметим
самые основные понятия и определения
регрессивного анализа.
§ Результирующая (зависимая, эндогенная)
переменная (или признак) У характеризует
результат или эффективность функционирования
анализируемой экономической модели (системы).
Ее значения формируются в процессе и
внутри функционирования системы под
воздействием ряда других переменных
и факторов, часть из которых поддается
регистрации и, в определенной степени,
управлению и планированию (эту часть
принято называть объясняющими переменными).
В регрессионном анализе результирующая
переменная выступает в роли функции,
значения которой определяются (правда,
с некоторой случайной погрешностью) значениями
упомянутых выше объясняющих переменных,
выступающих в роли аргументов. Поэтому
по своей природе результирующая переменная
– всегда случайная величина.
§ Объясняющие (экзогенные) переменные
(или признаки) – поддающиеся регистрации,
описывающие условия функционирования
системы (модели) – в существенной мере
определяют процесс формирования значений
результирующей переменной, как правило,
часть из которых поддается хотя бы частичному
управлению и регулированию. Значение
ряда объясняющих переменных задается
как бы извне анализируемой системы, их
принятоназывать экзогенными переменными.
В регрессионном анализе они играют роль
аргументов той функции, в качестве которой
рассматривается анализируемый результирующий
показатель У. По своей природе объясняющие
переменные могут быть как случайными,
так и не случайными величинами.
Пример.
Функция регрессии У по X называется зависимость
У = f ( ), если она описывает изменения условного
среднего значения результирующей переменной
У (при условии, что значения объясняющих
переменных X, зафиксированных на уровне
) в зависимости от изменения значений
объясняющих переменных. Математически
это определение можно записать в виде:
f ( ) = M (y | X = ),или в целях упрощения и в дальнейшем
просто
f (х) = M (y | X). (1)
Одним из первых примеров исследований
такого рода была работа шведских статистиков,
пытавшихся по наблюдениям пар признаков
(Х – отклонение от среднего уровня в росте
отца У – отклонение от среднего уровня
в росте взрослого сына этого отца) установить
и описать стохастическую связь, существующую
между Х и У. В процессе исследования была
подтверждена гипотеза о наличии положительной
статистической связи между ростом отца
и ростом взрослого сына. Но была замечена
и тенденция регрессии (отступления, возврата)
в росте сыновей к среднему уровню, а именно:
у очень высоких отцов – высокие дети,
но не такие высокие, как они сами; и наоборот,
у маленьких отцов – маленькие дети, но
выше, чем сами их отцы. Функцию, описывающую
такую закономерность, назвали функцией
регрессии, после чего этот термин стали
использовать применительно клюбой функции,
построенной аналогичными способами.
Пусть переменная У – результирующая
переменная в регрессионном анализе –
выступает в роли функции, а значения –
в роли аргумента, тогда уравнение регрессионной
связи математически можно записать в
виде:
y(X) = f(X) + ε(X); M(ε(X)) = 0. (2)
Присутствие случайной остаточной составляющей
ε(X) объясняется тем, что на У действуют
еще некоторые неучтенные факторы или
включает в себя случайную погрешность
в вычисления переменной У. Все это зафиксировано
в первом уравнении (1). Второе уравнение
(2) непосредственно вытекает из равенства
(1). Поскольку усреднение (вычисление математического
ожидания) левых и правых частей в формуле
(2) в первом уравнении при любом фиксированном
значении X дает:
M(y (X)|X) = M (f (X)) + M (ε (X)) = M (f (X)),
т.к. M (ε (X)) = 0 при любом фиксированном X,
результирующая f (X) – не является случайной.
Спецификация и способ статистического
анализа модели типа (2) зависят от конкретизации
требований к виду функции f (X), природе
объясняющих переменных X и стохастических
регрессионных остатков ε (X).
Универсальной характеристикой степени
тесноты статистической связи, существующей
между результирующей переменной У и объясняющими
переменными X, является коэффициент детерминации
K(У;X). Принимая во внимание, что точность
регрессионной модели определяется величиной
дисперсии результирующего показателя
D(У|X) (она характеризует разброс индивидуальных
значений У(X) около значения, лежащего
на линии регрессии f(X), при фиксированном
X, а усредненная (по всем значениям X) дисперсияопределяется
формулой:
Mx [D(y|X)] = [1 – K (y; X)] Dy,
можно сделать вывод, что величина коэффициента
детерминации K (У; X) (или квадрат множественного
коэффициента корреляции при исследовании
линейных моделей) является решающей характеристикой
прогностической силы анализируемой регрессионной
модели.
Все выводы в регрессионном анализе, так
же как и в любом статистическом исследовании,
строятся на основании имеющихся исходных
статистических данных. Итак, пусть мы
располагаем результатами регистрации
анализируемых объясняющих переменных
(x(1), x(2), x(3),…, x(p)) и результирующей У на
n статистических объектах. Если i – номер
обследуемого объекта, то исходные данные
состоят из n строк вида
(3)
Данные (3) в регрессионном анализе представятся
в виде матриц:
(4)
матрица размера n × ( p +1 ), составленная
из наблюденных значений объясняющих
переменных, и
(5)
матрица размера n × 1 (т.е. вектор-столбец
высоты n ), составленная из наблюденных
значений результирующей переменной.
Возможны ситуации, когда данные регистрируются
на одном и том же объекте, но в разные
периоды времени, а возможна ситуация,
когда «отслеживается» каждый из n объектов
в течении N тактов времени. Эти выборки
можно классифицировать как пространственную
(в первом случае), как временную (во втором)
и как пространственно-временную (в третьем).
В любой из этих ситуаций исходные данные
можно представить в форме (4) и (5).
Список используемой литературы:
1) http://sdb.su/obsheobr/ekonomika/415-ekonometrika-uchebnoe-posobie-chast-1-iz-2.html
2) «Эконометрика» Н.Ш. Кремер, Б.А. Путко
Информация о работе Результатирующие и объясняющие переменные