Статистический анализ динамики стоимости акций ОАО ГМК «Норильский никель»

Автор работы: Пользователь скрыл имя, 19 Декабря 2014 в 08:17, курсовая работа

Описание работы

С незапамятных времен человечество осуществляло учет многих сопутствующих его жизнедеятельности явлений и предметов и связанные с ним вычисления. Люди получали разносторонние, хотя и различающиеся полнотой на различных этапах общественного развития. Данные, учитывавшиеся повседневно в процессе принятия хозяйственных решений, а в обобщенном виде и на государственном уровне при определении русла экономической и социальной политики и характера внешнеполитической деятельности.

Содержание работы

Введение
Раздел 1. Теоретические основы статистического анализа динамики стоимости акций
1.1 Понятие, сущность, значение и виды акций
1.2 Показатели доходности акций и способы их расчета
1.3 Факторы, оказывающие влияние на стоимость акции
Раздел 2. Методика проведения статистического анализа
2.1 Методика корреляционного анализа
2.2 Методика регрессионного анализа
2.3 Методы прогнозирования в рядах динамики
Раздел 3. Статистический анализ динамики стоимости акций ОАО ГМК «Норильский никель»
3.1 Современное состояние динамики стоимости акций и показателей их доходности ОАО ГМК «Норильский никель»
3.2 Корреляционно-регрессионный анализ стоимости акций ОАО ГМК «Норильский никель»
3.3 Прогнозирование стоимости акций ОАО ГМК «Норильский никель»
ЗАКЛЮЧЕНИЕ
СПИСОК ИСПОЛЬЗУЕМОЙ ЛИТЕРАТУРЫ

Файлы: 1 файл

курсовая по статистике чистовик.docx

— 76.90 Кб (Скачать файл)

расчет может производиться с использованием абсолютных или производных величин

для вычисления коэффициента корреляции используются не сгруппированные вариационные ряды (это требование применяется только при вычислении коэффициента корреляции по методу квадратов)

число наблюдений менее 30

Рекомендации по применению метода ранговой корреляции (метод Спирмена)

когда нет необходимости в точном установлении силы связи, а достаточно ориентировочных данных

когда признаки представлены не только количественными, но и атрибутивными значениями

когда ряды распределения признаков имеют открытые варианты.

Рекомендации к применению метода квадратов (метод Пирсона)

когда требуется точное установление силы связи между признаками

когда признаки имеют только количественное выражение

Методика и порядок вычисления коэффициента корреляции

1) Метод квадратов

построить вариационные ряды для каждого из сопоставляемых признаков, обозначив первый и второй ряд чисел соответственно х и у;

определить для каждого вариационного ряда средние значения (М1 и М2);

найти отклонения (dх и dy) каждого числового значения от среднего значения своего вариационного ряда;

полученные отклонения перемножить (dx X dy)

каждое отклонение возвести в квадрат и суммировать по каждому ряду (У dx2 и dy2 )

подставить полученные значения в формулу расчета коэффициента корреляции: 

    1. r=

при наличии вычислительной техники расчет производится по формуле: 

(2)

2) Ранговый метод

составить два ряда из парных сопоставляемых признаков, обозначив первый и второй ряд соответственно х и у. При этом представить первый ряд признака в убывающем или возрастающем порядке, а числовые значения второго ряда расположить напротив тех значений первого ряда, которым они соответствуют

величину признака в каждом из сравниваемых рядов заменить порядковым номером (рангом). Рангами, или номерами, обозначают места показателей (значения) первого и второго рядов. При этом числовым значениям второго признака ранги должны присваиваться в том же порядке, какой был принят при раздаче их величинам первого признака. При одинаковых величинах признака в ряду ранги следует определять как среднее число из суммы порядковых номеров этих величин

определить разность рангов между х и у (d): d = х - у

возвести полученную разность рангов в квадрат (d2)

получить сумму квадратов разности (У d2) и подставить полученные значения в формулу: 

(3)

Схема оценки корреляционной связи по коэффициенту корреляции

Таблица 1

 

Сила связи

Направление связи

 
 

прямая (+)

обратная (-)

 

Сильная

от + 1 до +0,7

от - 1 до - 0,7

 

Средняя

от + 0,699 до + 0,3

от - 0,699 до - 0,3

 

Слабая

от + 0,299 до 0

от - 0,299 до 0

 
       

Вычисление ошибки коэффициента корреляции

ошибка коэффициента корреляции, вычисленного методом квадратов (Пирсона):

 

(4)

ошибка коэффициента корреляции, вычисленного ранговым методом (Спирмена):

(5) ƍ=1-

Оценка достоверности коэффициента корреляции, полученного методом ранговой корреляции и методом квадратов

Способ 1.

Достоверность определяется по формуле:

(6) S=

Критерий t оценивается по таблице значений t с учетом числа степеней свободы (n - 2), где n - число парных вариант. Критерий t должен быть равен или больше табличного, соответствующего вероятности р ?99%.

Способ 2.

Достоверность оценивается по специальной таблице стандартных коэффициентов корреляции. При этом достоверным считается такой коэффициент корреляции, когда при определенном числе степеней свободы (n - 2), он равен или более табличного, соответствующего степени безошибочного прогноза р ?95%.

Методика регрессионного анализа

Существующие между явлениями формы и виды связей весьма разнообразны по своей классификации. Предметом статистики являются только такие из них, которые имеют количественный характер и изучаются с помощью количественных методов. Рассмотрим метод корреляционно-регрессионного анализа, который является основным в изучении взаимосвязей явлений.

Данный метод содержит две свои составляющие части - корреляционный анализ и регрессионный анализ. Корреляционный анализ - это количественный метод определения тесноты и направления взаимосвязи между выборочными переменными величинами. Регрессионный анализ - это количественный метод определения вида математической функции в причинно-следственной зависимости между переменными величинами.

Для оценки силы связи в теории корреляции применяется шкала английского статистика Чеддока: слабая - от 0,1 до 0,3; умеренная - от 0,3 до 0,5; заметная - от 0,5 до 0,7; высокая - от 0,7 до 0,9; весьма высокая (сильная) - от 0,9 до 1,0. Она используется далее в примерах по теме.

Линейная корреляция

Данная корреляция характеризует линейную взаимосвязь в вариациях переменных. Она может быть парной (две коррелирующие переменные) или множественной (более двух переменных), прямой или обратной - положительной или отрицательной, когда переменные варьируют соответственно в одинаковых или разных направлениях.

Если переменные - количественные и равноценные в своих независимых наблюдениях  при их общем количестве , то важнейшими эмпирическими мерами тесноты их линейной взаимосвязи являются коэффициент прямой корреляции знаков австрийского психолога Г.Т.Фехнера (1801-1887) и коэффициенты парной, чистой (частной) и множественной (совокупной) корреляции английского статистика-биометрика К.Пирсона (1857-1936).

Коэффициент парной корреляции знаков Фехнера определяет согласованность направлений в индивидуальных отклонениях переменных  и от своих средних  и . Он равен отношению разности сумм совпадающих (ΣC) и несовпадающих (ΣH) пар знаков в отклонениях  и  к сумме этих сумм:

(7)

Величина Кф изменяется от -1 до +1. Суммирование в (1) производится по наблюдениям, которые не указаны в суммах ради упрощения. Если какое-то одно отклонение  или, то оно не входит в расчет. Если же сразу оба отклонения нулевые:, то такой случай считается совпадающим по знакам и входит в состав.

Коэффициенты парной, чистой (частной) и множественной (совокупной) линейной корреляции Пирсона, в отличие от коэффициента Фехнера, учитывают не только знаки, но и величины отклонений переменных. Для их расчета используют разные методы. Так, согласно методу прямого счета по несгруппированным данным, коэффициент парной корреляции Пирсона имеет вид:

(8)

Этот коэффициент также изменяется от -1 до +1. При наличии нескольких переменных рассчитывается коэффициент множественной (совокупной) линейной корреляции Пирсона. Для трех переменных x, y, z он имеет вид

(9)   

Этот коэффициент изменяется от 0 до 1. Если элиминировать (совсем исключить или зафиксировать на постоянном уровне) влияние  на  и то их "общая" связь превратится в "чистую", образуя чистый (частный) коэффициент линейной корреляции Пирсона:

(10)

Этот коэффициент изменяется от -1 до +1. Квадраты коэффициентов корреляции (2)-(4) называются коэффициентами (индексами) детерминации - соответственно парной, чистой (частной), множественной (совокупной):

(11)

 

Каждый из коэффициентов детерминации изменяется от 0 до 1 и оценивает степень вариационной определенности в линейной взаимосвязи переменных, показывая долю вариации одной переменной (y), обусловленную вариацией другой (других) - x и y. Многомерный случай наличия более трех переменных здесь не рассматривается.

Согласно разработкам английского статистика Р.Э. Фишера (1890-1962), статистическая значимость парного и чистого (частного) коэффициентов корреляции Пирсона проверяется в случае нормальности их распределения, на основании -распределения английского статистика В.С. Госсета (псевдоним "Стьюдент"; 1876-1937) с заданным уровнем вероятностной значимости  и имеющейся степени свободы , где  - число связей (факторных переменных). Для парного коэффициента  имеем его среднеквадратическую ошибку  и фактическое значение -критерия Стьюдента:

 

(12)

Для чистого коэффициента корреляции  при расчете его  вместо (n-2) надо брать , т.к. в этом случае имеется m=2 (две факторные переменные x и z). При большом числе n>100 вместо (n-2) или (n-3) в (6) можно брать n, пренебрегая точностью расчета.

Если tr > tтабл. , то коэффициент парной корреляции - общий или чистый является статистически значимым, а при tr ? tтабл. - незначимым.

Значимость коэффициента множественной корреляции R проверяется по F - критерию Фишера путем расчета его фактического значения

(13)

При FR > Fтабл. коэффициент R считается значимым с заданным уровнем значимости a и имеющихся степенях свободы  и , а при Fr? Fтабл - незначимым.

В совокупностях большого объема n > 100 для оценки значимости всех коэффициентов Пирсона вместо критериев t и F применяется непосредственно нормальный закон распределения (табулированная функция Лапласа-Шеппарда).

Наконец, если коэффициенты Пирсона не подчиняются нормальному закону, то в качестве критерия их значимости используется Z - критерий Фишера, который здесь не рассматривается.

Методы прогнозирования в рядах динамики

Статистические методы прогнозирования - научная и учебная дисциплина, к основным задачам которой относятся разработка, изучение и применение современных математико-статистических методов прогнозирования на основе объективных данных; развитие теории и практики вероятностно-статистического моделирования экспертных методов прогнозирования; методов прогнозирования в условиях риска и комбинированных методов прогнозирования с использованием совместно экономико-математических и эконометрических (как математико-статистических, так и экспертных) моделей. Научной базой статистических методов прогнозирования является прикладная статистика и теория принятия решений.

Простейшие методы восстановления используемых для прогнозирования зависимостей исходят из заданного временного ряда, т. е. функции, определённой в конечном числе точек на оси времени. Временной ряд при этом часто рассматривается в рамках той или иной вероятностной модели, вводятся другие факторы (независимые переменные), помимо времени, например, объем денежной массы. Временной ряд может быть многомерным. Основные решаемые задачи - интерполяция и экстраполяция. Метод наименьших квадратов в простейшем случае (линейная функция от одного фактора) был разработан К. Гауссом в 1794-1795 гг. Могут оказаться полезными предварительные преобразования переменных, например, логарифмирование. Наиболее часто используется метод наименьших квадратов при нескольких факторах. Метод наименьших модулей, сплайны и другие методы экстраполяции применяются реже, хотя их статистические свойства зачастую лучше.

Оценивание точности прогноза (в частности, с помощью доверительных интервалов) - необходимая часть процедуры прогнозирования. Обычно используют вероятностно-статистические модели восстановления зависимости, например, строят наилучший прогноз по методу максимального правдоподобия. Разработаны параметрические (обычно на основе модели нормальных ошибок) и непараметрические оценки точности прогноза и доверительные границы для него (на основе Центральной Предельной Теоремы теории вероятностей). Применяются также эвристические приемы, не основанные на вероятностно-статистической теории: метод скользящих средних, метод экспоненциального сглаживания.

Многомерная регрессия, в том числе с использованием непараметрических оценок плотности распределения - основной на настоящий момент статистический аппарат прогнозирования. Нереалистическое предположение о нормальности погрешностей измерений и отклонений от линии (поверхности) регрессии использовать не обязательно; однако для отказа от предположения нормальности необходимо опереться на иной математический аппарат, основанный на многомерной Центральной Предельной Теореме теории вероятностей, технологии линеаризации и наследования сходимости [4]. Он позволяет проводить точечное и интервальное оценивание параметров, проверять значимость их отличия от 0 в непараметрической постановке, строить доверительные границы для прогноза.

Весьма важна проблема проверки адекватности модели, а также проблема отбора факторов. Априорный список факторов, оказывающих влияние на отклик, обычно весьма обширен, желательно его сократить, и крупное направление современных исследований посвящено методам отбора «информативного множества признаков». Однако эта проблема пока еще окончательно не решена. Проявляются необычные эффекты. Так, установлено, что обычно используемые оценки степени полинома имеют в асимптотике геометрическое распределение [1, 3]. Перспективны непараметрические методы оценивания плотности вероятности и их применения для восстановления регрессионной зависимости произвольного вида. Наиболее общие результаты в этой области получены с помощью подходов статистики нечисловых данных.

Информация о работе Статистический анализ динамики стоимости акций ОАО ГМК «Норильский никель»