Результатирующие и объясняющие переменные

Автор работы: Пользователь скрыл имя, 06 Ноября 2014 в 18:27, реферат

Описание работы

Регрессивный анализ занимает центральное место во всем математико-статистическом инструментарии эконометрики. Отметим самые основные понятия и определения регрессивного анализа.

Содержание работы

1. Основные понятия и определения регрессивного анализа…… стр. 1
2. Пример………………………………………….……………………...... стр. 2-3
Список используемой литературы……………………………………… стр. 4

Файлы: 1 файл

Результирующие и объясняющие переменные.docx

— 17.73 Кб (Скачать файл)

 

домодедовский филиал

негосударственного образовательного учреждения

высшего профессионального образования

«российский новый университет»

 

 

 

 

 

 

 

 

 

реферат

 

 

 по дисциплине:   Эконометрика

 Тема: «Результирующие и объясняющие переменные»

 

 

 

 

 

 

 

Выполнила:

Студентка 4 курса

Заочной формы обучения

Экономического факультета

группы ФЗ-11

Снитовец Юлии Владимировны

 

Руководитель:


 

Старший преподаватель

Новикова Людмила Викторовна

 

 

 

 

 

 

 

 

 

 

2014г.

 

Содержание: 
 
1. Основные понятия и определения регрессивного анализа……  стр. 1 
2. Пример………………………………………….……………………...... стр. 2-3 
 
Список используемой литературы……………………………………… стр. 4 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 
Основные понятия и определения регрессивного анализа. 
 
Регрессивный анализ занимает центральное место во всем математико-статистическом инструментарии эконометрики. Отметим самые основные понятия и определения регрессивного анализа. 
 
§ Результирующая (зависимая, эндогенная) переменная (или признак) У характеризует результат или эффективность функционирования анализируемой экономической модели (системы). Ее значения формируются в процессе и внутри функционирования системы под воздействием ряда других переменных и факторов, часть из которых поддается регистрации и, в определенной степени, управлению и планированию (эту часть принято называть объясняющими переменными). В регрессионном анализе результирующая переменная выступает в роли функции, значения которой определяются (правда, с некоторой случайной погрешностью) значениями упомянутых выше объясняющих переменных, выступающих в роли аргументов. Поэтому по своей природе результирующая переменная – всегда случайная величина. 
 
§ Объясняющие (экзогенные) переменные (или признаки) – поддающиеся регистрации, описывающие условия функционирования системы (модели) – в существенной мере определяют процесс формирования значений результирующей переменной, как правило, часть из которых поддается хотя бы частичному управлению и регулированию. Значение ряда объясняющих переменных задается как бы извне анализируемой системы, их принятоназывать экзогенными переменными. В регрессионном анализе они играют роль аргументов той функции, в качестве которой рассматривается анализируемый результирующий показатель У. По своей природе объясняющие переменные могут быть как случайными, так и не случайными величинами. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Пример. 
 
Функция регрессии У по X называется зависимость У = f ( ), если она описывает изменения условного среднего значения результирующей переменной У (при условии, что значения объясняющих переменных X, зафиксированных на уровне ) в зависимости от изменения значений объясняющих переменных. Математически это определение можно записать в виде: 
 
f ( ) = M (y | X = ),или в целях упрощения и в дальнейшем просто 
 
f (х) = M (y | X). (1) 
 
Одним из первых примеров исследований такого рода была работа шведских статистиков, пытавшихся по наблюдениям пар признаков (Х – отклонение от среднего уровня в росте отца У – отклонение от среднего уровня в росте взрослого сына этого отца) установить и описать стохастическую связь, существующую между Х и У. В процессе исследования была подтверждена гипотеза о наличии положительной статистической связи между ростом отца и ростом взрослого сына. Но была замечена и тенденция регрессии (отступления, возврата) в росте сыновей к среднему уровню, а именно: у очень высоких отцов – высокие дети, но не такие высокие, как они сами; и наоборот, у маленьких отцов – маленькие дети, но выше, чем сами их отцы. Функцию, описывающую такую закономерность, назвали функцией регрессии, после чего этот термин стали использовать применительно клюбой функции, построенной аналогичными способами. 
 
Пусть переменная У – результирующая переменная в регрессионном анализе – выступает в роли функции, а значения – в роли аргумента, тогда уравнение регрессионной связи математически можно записать в виде: 
 
y(X) = f(X) + ε(X); M(ε(X)) = 0. (2) 
 
Присутствие случайной остаточной составляющей ε(X) объясняется тем, что на У действуют еще некоторые неучтенные факторы или включает в себя случайную погрешность в вычисления переменной У. Все это зафиксировано в первом уравнении (1). Второе уравнение (2) непосредственно вытекает из равенства (1). Поскольку усреднение (вычисление математического ожидания) левых и правых частей в формуле (2) в первом уравнении при любом фиксированном значении X дает: 
 
M(y (X)|X) = M (f (X)) + M (ε (X)) = M (f (X)), 
 
т.к. M (ε (X)) = 0 при любом фиксированном X, результирующая f (X) – не является случайной. 
 
Спецификация и способ статистического анализа модели типа (2) зависят от конкретизации требований к виду функции f (X), природе объясняющих переменных X и стохастических регрессионных остатков ε (X). 
Универсальной характеристикой степени тесноты статистической связи, существующей между результирующей переменной У и объясняющими переменными X, является коэффициент детерминации K(У;X). Принимая во внимание, что точность регрессионной модели определяется величиной дисперсии результирующего показателя D(У|X) (она характеризует разброс индивидуальных значений У(X) около значения, лежащего на линии регрессии f(X), при фиксированном X, а усредненная (по всем значениям X) дисперсияопределяется формулой: 
Mx [D(y|X)] = [1 – K (y; X)] Dy, 
 
можно сделать вывод, что величина коэффициента детерминации K (У; X) (или квадрат множественного коэффициента корреляции при исследовании линейных моделей) является решающей характеристикой прогностической силы анализируемой регрессионной модели. 
 
Все выводы в регрессионном анализе, так же как и в любом статистическом исследовании, строятся на основании имеющихся исходных статистических данных. Итак, пусть мы располагаем результатами регистрации анализируемых объясняющих переменных (x(1), x(2), x(3),…, x(p)) и результирующей У на n статистических объектах. Если i – номер обследуемого объекта, то исходные данные состоят из n строк вида 
(3) 
Данные (3) в регрессионном анализе представятся в виде матриц: 
(4) 
матрица размера n × ( p +1 ), составленная из наблюденных значений объясняющих переменных, и 
(5) 
матрица размера n × 1 (т.е. вектор-столбец высоты n ), составленная из наблюденных значений результирующей переменной. 
Возможны ситуации, когда данные регистрируются на одном и том же объекте, но в разные периоды времени, а возможна ситуация, когда «отслеживается» каждый из n объектов в течении N тактов времени. Эти выборки можно классифицировать как пространственную (в первом случае), как временную (во втором) и как пространственно-временную (в третьем). В любой из этих ситуаций исходные данные можно представить в форме (4) и (5). 

 

 

 

 

 
 
 
 
Список используемой литературы: 
 
1) http://sdb.su/obsheobr/ekonomika/415-ekonometrika-uchebnoe-posobie-chast-1-iz-2.html 
 
2) «Эконометрика» Н.Ш. Кремер, Б.А. Путко


Информация о работе Результатирующие и объясняющие переменные