, если q<1.
, если q>1.
Для отыскания параметра
q пользуются таблицей приложения 4.
Пример 1. Количественный
признак X генеральной совокупности распределен
нормально. По выборке объема n=25 найдено
«исправленное» среднее квадратическое
отклонение s=0,8. Найти доверительный интервал,
покрывающий генеральное среднее квадратическое
отклонение
с надежностью 0,95.
Решение. По таблице
приложения 4 по данным
=0,95 и n=25 найдем q=0,32. Т.к. q<1, то для вычисления
доверительного интервала применяем первую
формулу
Искомый доверительный
интервал таков:
0,8 (1-0,32)<
<0,8 (1+0,32), или 0,544<
<1,056.
Билет 60
1. Причинность, регрессия,
корреляция
Для количественного описания
взаимосвязей между экономическими переменными
в статистике используют методы регрессии
и корреляции.
Регрессия - величина, выражающая зависимость среднего
значения случайной величины у от значений
случайной величины х.
Уравнение регрессии выражает среднюю величину одного признака
как функцию другого.
Функция регрессии - это модель вида у = л», где у - зависимая
переменная (результативный признак); х - независимая, или объясняющая,
переменная (признак-фактор).
Линия регрессии - график функции у = f (x).
2 типа взаимосвязей
между х и у:
1) может быть неизвестно, какая
из двух переменных является независимой,
а какая - зависимой, переменные равноправны,
это взаимосвязь корреляционного типа;
2) если х и у неравноправны и
одна из них рассматривается как объясняющая
(независимая) переменная, а другая - как
зависимая, то это взаимосвязь регрессионного
типа.
Виды регрессий:
1) гиперболическая -
регрессия равносторонней гиперболы: у = а + b / х + Е;
2) линейная - регрессия,
применяемая в статистике в виде четкой
экономической интерпретации ее параметров: у = а+b*х+Е;
3) логарифмически линейная -
регрессия вида: In у = In а + b * In x + In E
4) множественная -
регрессия между переменными у и х1 , х2 ...xm, т. е. модель
вида: у = f(х1 , х2 ...xm)+E, где у - зависимая
переменная (результативный признак), х1 , х2 ...xm - независимые,
объясняющие переменные (признаки-факторы), Е- возмущение или стохастическая
переменная, включающая влияние неучтенных
факторов в модели;
5) нелинейная - регрессия,
нелинейная относительно включенных в
анализ объясняющих переменных, но линейная
по оцениваемым параметрам; или регрессия,
нелинейная по оцениваемым параметрам.
6) обратная - регрессия,
приводимая к линейному виду, реализованная
в стандартных пакетах прикладных программ
вида: у = 1/a + b*х+Е;
7) парная - регрессия
между двумя переменными у и x, т. е, модель
вида: у = f (x) + Е, где у -зависимая переменная
(результативный признак), x – независимая,
объясняющая переменная (признак - фактор),
Е - возмущение, или стохастическая переменная,
включающая влияние неучтенных факторов
в модели.
Корреляция - величина, отражающая наличие связи
между явлениями, процессами и характеризующими
их показателями.
Корреляционная зависимость - определение зависимости средней величины
одного признака от изменения значения
другого признака.
Коэффициент корреляции
величин х и
у (rxy) свидетельствует о наличии или отсутствии
линейной связи между переменными:
где
(-1; 1). Если:
= -1, то наблюдается строгая
отрицательная связь;
= 1, то наблюдается строгая положительная
связь;
= 0, то линейная связь отсутствует.
- ковариация, т. е. среднее
произведение отклонений признаков
от их средних квадратических
отклонений.
Коэффициент корреляции может
служить мерой зависимости случайных
величин.
Корреляция для нелинейной
регрессии:
при R
[0;1].
Чем ближе R к 1, тем теснее связь
рассматриваемых признаков.
2. Основные задачи
и предпосылки применения корреляционно-регрессионного
анализа
Формы проявления
корреляционной связи между признаками:
1) причинная зависимость результативного
признака от вариации факторного признака;
2) корреляционная связь
между двумя следствиями общей причины.
Здесь корреляцию нельзя интерпретировать
как связь причины и следствия. Оба признака
- следствие одной общей причины;
3) взаимосвязь признаков,
каждый из которых и причина, и следствие.
Каждый признак может выступать как в
роли независимой переменной, так и в качестве
зависимой переменной.
Задачи корреляционно-регрессионного
анализа:
1) выбор спецификации модели,
т. е. формулировки вида модели, исходя
из соответствующей теории связи между
переменными;
2) из всех факторов, влияющих
на результативный признак, необходимо
выделить наиболее существенно влияющие
факторы;
3) парная регрессия достаточна,
если имеется доминирующий фактор, который
и используется в качестве объясняющей
переменной. Поэтому необходимо знать,
какие остальные факторы предполагаются
неизменными, так как в дальнейшем анализе
их придется учесть в модели и от простой
регрессии перейти к множественной;
4) исследовать, как изменение
одного признака меняет вариацию другого.
Предпосылки корреляционно-регрессионного
анализа:
1) уравнение парной регрессии
характеризует связь между двумя переменными,
которая проявляется как некоторая закономерность
лишь в среднем в целом по совокупности
наблюдений;
2) в уравнении регрессии корреляционная
связь признаков представляется в виде
функциональной связи, выраженной соответствующей
математической функцией;
3) случайная величина Е включает
влияние неучтенных в модели факторов,
случайных ошибок и особенностей измерения;
4) определенному значению признака-аргумента
отвечает некоторое распределение признака
функции.
Недостатки анализа:
1) невключение ряда объясняющих
переменных:
a. целенаправленный отказ от
других факторов;
b. невозможность определения,
измерения определенных величин (психологические
факторы);
c. недостаточный профессионализм
исследователя моделируемого;
2) агрегирование переменных
(в результате агрегирования теряется
часть информации);
3) неправильное определение
структуры модели;
4) использование временной информации
(изменив временной интервал, можно получить
другие результаты регрессии);
5) ошибки спецификации:
a. неправильный выбор той или
иной математической функции;
b. недоучет в уравнении регрессии
какого-либо существенного фактора, т.
е. использование парной регрессии, вместо
множественной);
6) ошибки выборки, так как исследователь
чаще имеет дело с выборочными данными
при установлении закономерной связи
между признаками. Ошибки выборки возникают
и в силу неоднородности данных в исходной
статистической совокупности, что бывает
при изучении экономических процессов;
7) ошибки измерения представляют
наибольшую опасность. Если ошибки спецификации
можно уменьшить, изменяя форму модели
(вид математической формулы), а ошибки
выборки - увеличивая объем исходных данных,
то ошибки измерения сводят на нет все
усилия по количественной оценке связи
между признаками.
3. Корреляционные
параметрические методы изучения связи
Корреляционные параметрические
методы - методы оценки тесноты свози,
основанные на использовании, как правило,
оценок нормального распределения, применяются
в тех случаях, когда изучаемая совокупность
состоит из величин, которые подчиняются
закону нормального распределения.
Параметризация уравнения
регрессии: установление формы зависимости;
определение функции регрессии; оценка
значений параметров выбранной формулы
статистической связи Методы изучения
связи - форму зависимости можно установить
с помощью поля корреляции. Если исходные
данные (значения переменных х и у) нанести
на график в виде точек в прямоугольной
системе координат, то получим поле корреляцииПри
этом значения независимой переменной x (признак-фактор) откладываются
по оси абсцисс, а значения результирующего
фактора у откладываются по оси ординат.
Если зависимость у от x функциональная,
то все точки расположены на какой-то линии.
При корреляционной связи вследствие
влияния прочих факторов точки не лежат
на одной линии.
Расчет показателей
силы и тесноты связей Линейный коэффициент корреляции
- количественная оценка и мера тесноты
связи двух переменных. Коэффициент корреляции
принимает значения в интервале от -1 до
+1. Считают, что если этот коэффициент
не больше 0,30, то связь слабая: от 0,3 до
0,7 - средняя; больше 0,7 - сильная, или тесная.
Когда коэффициент равен 1, то связь функциональная,
если он равен 0, то говорят об отсутствии
линейной связи между признаками.
Коэффициент детерминации - квадрат линейного коэффициента корреляции,
рассчитываемый для оценки качества подбора
линейной функции.
Формула нелинейного
коэффициента корреляции:
Корреляция для нелинейной
регрессии Уравнение нелинейной регрессии,
так же как и в линейной зависимости, дополняется
показателем корреляции, а именно - индексом
корреляции (R):
где
- общая дисперсия результативного
признака у,
- остаточная дисперсия, определяемая
исходя из уравнения регрессии : ух = f (х).Корреляция для множественной
регрессии. Значимость уравнения множественной
регрессии оценивается с помощью показателя
множественной корреляции и его квадрата
- коэффициента детерминации. Показатель
множественной корреляции характеризует
тесноту связи рассматриваемого набора
факторов с исследуемым признаком, или
оценивает тесноту совместного влияния
факторов на результат. Независимо от
формы связи показатель множественной
корреляции может быть найден как индекс
множественной корреляции:
где
- общая дисперсия результативного
признака;
- остаточная дисперсия для уравнения
у = f (x1,x2,…,xp)
4. Парная регрессия
на основе метода наименьших квадратов
и группировки
Парная регрессия - регрессия между двумя переменными
у и х, т.е. модель вида: у = f (x)+E, где у-
зависимая переменная (результативный
признак); x - независимая, обьясняющая переменная
(признак-фактор); E- возмущение, или стохастическая
переменная, включающая влияние неучтенных
факторов в модели. В случае парной линейной
зависимости строится регрессионная модель
по уравнению линейной регрессии. Параметры
этого уравнения оцениваются с помощью
процедур, наибольшее распространение
получил метод наименьших квадратов.
Метод наименьших
квадратов (МНК) - метод оценивания параметров
линейной регрессии, минимизирующий сумму
квадратов отклонений наблюдений зависимой
переменной от искомой линейной функции.
где уi- статические
значения зависимой переменной; f (х) - теоретические
значения зависимой переменной, рассчитанные
с помощью уравнения регрессии.
Экономический смысл
параметров уравнения линейной парной
регрессии. Параметр b показывает среднее
изменение результата у с изменением фактора
х на единицу. Параметр а = у, когда х = 0. Если х не
может быть равен 0, то а не имеет экономического
смысла. Интерпретировать можно только
знак при а: если а > 0. то относительное
изменение результата происходит медленнее,
чем изменение фактора, т. е. вариация результата
меньше вариации фактора: V < V. и наоборот.
То есть МНК заключается в том,
чтобы определить а и а, так, чтобы сумма
квадратов разностей фактических у и у. вычисленных по этим
значениямa0 и а1 была минимальной:
Рассматривая эту сумму как
функцию a0 и a1 дифференцируем
ее по этим параметрам и приравниваем
производные к нулю, получаем следующие
равенства:
n - число единиц совокупности
(заданны параметров значений x и у). Это
система «нормальных» уравнений МНК для
линейной функции (yx)
Расчет параметров
уравнения линейной регрессии:
, a = y – bx
Нахождение уравнения
регрессии по сгруппированным данным. Если совокупность сгруппирована по
признаку x, для каждой группы найдены средние
значения другого признака у, то эти средние
дают представление о том, как меняется
в среднем у в зависимости от х. Поэтому группировкаслужит средством
анализа связи в статистике. Но ряд групповых
средних уx имеет тот
недостаток, что он подвержен случайным
колебаниям. Они создают колебания уx отражающие не закономерность данной
зависимости, а затушевывающий ее «шум».
Групповые средние хуже отражают
закономерность связи, чем уравнение регрессии,
но могут быть использованы в качестве
основы для нахождения этого уравнения.
Умножая численность каждой группы nч на групповую среднюю уч мы получим
сумму у в пределах группы Суммируя эти
суммы, найдем общую сумму у. Несколько
сложнее с суммой ху. Если при сумме ху интервалы группировки
малы, то можно считать значение x для всех
единиц в рамках группы одинаковым Умножив
на него сумму у, получим сумму произведений x на
у в рамках группы и, суммируя эти суммы,
общую сумму xу. Численность nx, здесь играет
такую же роль, как взвешивание в вычислении
средних.
5. Множественная (многофакторная)
регрессия. Оценка существенности связи
Множественная регрессия - регрессия между переменными у и x1,x2,…,xm. Т. е. модель
вида: у = f (x1,x2,…,xm)+E
где у - зависимая
переменная (результативный признак);
x1,x2,…,xm - независимые,
объясняющие переменные (признак-фактор); Е- возмущение, или стохастическая
переменная, включающая влияние неучтенных
факторов в модели.
Множественная регрессия применяется
в решении проблем спроса, доходности
акций, при изучении функции издержек
производства, в макроэкономических расчетах. Цель множественной регрессии -
построить модель с большим числом факторов,
определив при этом влияние каждого из
них в отдельности, а также их совокупное
воздействие на моделируемый показатель.
Основные типы функций,
используемые при количественной оценке
связей: линейная функция: у = а0 + a1х1 + а2х2,+ ... + amxm.Параметры a1, а2, am, называются коэффициентами «чистой» регрессии и
характеризуют среднее изменение результата
с изменением соответствующего фактора
на единицу при неизменном значении других
факторов, закрепленных на среднем уровне; нелинейные функции:у=ах1b1 х2b2....xmbm- - степенная
функция; b1, b2..... bm - коэффициенты эластичности; показывают,
насколько % изменится в
среднем результат при изменении соответствующего
фактора на 1 % и при неизменности действия
других факторов.