Автор работы: Пользователь скрыл имя, 29 Мая 2013 в 16:19, шпаргалка
Работа содержит ответы на вопросы для экзамена (зачета) по "Информатике"
1.Комбинаторика.Элементы комбинаторики. Комбинаторика-это раздел
математ.изучающ.совокупность( 2 основных правила комбинаторики. 1.Правило умножения:если первый элемент(объект А)можно выбрать n- способами,то оба объекта а и б мы можем выбрать n1*n2 способами ПРИМЕР:Сколькими способами могут быть распределены 3 призовых места среди 16 соревнующихся. 1.-16сп. 16*15*14=3360способов 2.-15сп. 3.-14сп. 2.Правило сложения:если первый элемент(объект а)можно выбрать n-способами,а второй элемент(объект б)можно выбрать n2-способами,при чем они не пересекаются,то любой из указанных объектов а или б можно выбрать n,n2-способами. В студенческой группе 12 девушек и 16 юношей.Сколькими способами можно выбрать для вручения призов 2-х студентов одного пола? 12 девушек 16 юношей 1 девушка-12 способов=12*11=132 способа 2 девушка-11 способов
1 юноша-16 способов=16*15=240 способов 2 юноша-15 способов Решение вероятностных задач часто облегчается если использовать комбинаторные формулы.Каждая из формул определяет число всевозможных исходов в некотором опыте стоящем в выборе на удачу m-элементов из рассматриваемого n-элементного множества 0 меньше m меньше=n Схемы выбора элементов. 1.Без возвращения-выбранный элемент обратно в множество не возвращается 2.С возвращением-выбор осущ.поэлементно с обязат.возвращением отобранного элемента на каждом шаге в рассматриваемое множество. Пусть рассматриваемое множество состоит из n-различных элементов,т.е.элементы имеют или разные названия или разные номера Элементы комбинаторики. Сочетанием из n-элемента по m-элемента называется любое подмножество,которое состоит из m-элементов. Сочетание-это комбинации, Сnm=m!(n-m!) n! 0!=1 3!=1*2*3=6 1!=1 4!=1*2*3*4=24 2!=1*2=2 n!=1*2*3*4*5…. ПРИМЕР:Из группы в 25 человек нужно выбрать 3 человека на дежурство.Сколькими способами это можно сделать? N=25,m=3 C325=3!*22! 25!=23*4*25=2300 2.Размещение из n-элементов по m-элементов называется любое упорядоченное m-элементное подмножество рассматриваемого n-элементного множества. Размещение-это комбинации,состоящие из m-элементов,которые отличаются друг от друга либо составом элементов,либо порядком их расположения. Аnm=n(n-m!) ПРИМЕР:Расписание одного дня состоит из 5 уроков.Определить число вариантов расписания при выборе из 11 дисциплин. A511=11!6!=7*8*9*10*11=55440 способов Перестановкой из n-элементов называется размещение из n-элементов по n-элементов. Перестановки-это комбинации состоящие из n-элементов и отличающиеся друг от друга только порядком следования этих элементов. Рn=Ann=n! ПРИМЕР:Сколькосущ.способов располож.5 различных книг на полке? P5=A55=5!=120 способов.
|
13.Дифференциальная функция Непрерывной называют случайную величину, которая может принимать любые значения из некоторого заданного интервала, например, время ожидания транспорта, температура воздуха в каком-либо месяце, отклонение фактического размера детали от номинального, и т.д. Интервал, на котором она задана, может быть бесконечным в одну или обе стороны. Плотность вероятности непрерывной случайной величины,
она же дифференциальная функция распределения
вероятностей - аналог закона распределения
дискретной с.в. Но если закон распределения
дискретной с.в. графически изображается
в виде точек, соединённых для наглядности
ломаной линией (многоугольник распределения),
то плотность вероятностей графически
представляет собой непрерывную гладкую
линию (или кусочно-гладкую, если на разных
отрезках задаётся разными функциями).
Аналитически задаётся формулой. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
3.Классическое определение Классическое определение вероятности события. Вероятностью события А называется отношение числа m-случаев благоприятствующих этому событию,к числу n-всех возможных исходов образующих полную группу несовместно образованных случаев. Р=Р(А)=m/n N=0?m=1, Р=1/6
|
4.Статистическое определение вероятности. Статистической вероятностью события называется число вокруг которого группируются относительное значение частоты. При рассмотрении результатов
отдельных испытаний очень
где mA - число экспериментов, в которых
появилось событие А; Формулы (1.1) и (1.2) для определения
вероятности имеют внешнее | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
5.Сумма событий.Вероятность суммы двух совместных и несовместных событий. ПРАВИЛО 3:Вероятность суммы 2-х несовместных событий=сумме вероятностей этих событий Р(А+В)=Р(А)+Р(В) Р(А1+В2+А3+….Аn)=Р(А1)+Р(А2)+… ПРИМЕР:В денежно-вещевой лотерее на каждые тысячу билетов приходится 5 денежных и 20 вещевых.Какова вероятность выигрыша на 1 билет? А-ден.выигрыш В-вещевой выигрыш Р(А)=5/1000 P(B)=20/1000 P(A+B)=25/1000=2.5% ПРАВИЛО 4:Вероятность суммы 2-х совместных событий А и В=сумме их вероятностей минус вероятность произведения Р(А+В)=Р(А)+Р(В)-Р(АВ) ПРИМЕР:2 студента решают задачу,вероятностьтого,что задачу решит 1-ый студент 0,7,вероятность того,что решит 2-ой студент=0,9. Найти вероятность того,что задачу решит хотя бы один студент. (АВ)=0,7+0,9-0,7*0,9=0,97% |
6.Произведение событий. Вероятность произведения двух независимых и зависимых событий. Правило 1:Вероятность произведения двух независимых событий А и В= произведению этих событий. Р(АВ)=Р(А)х Р(В)
Пример:Найти вероятность поражения цели при совместной стрельбе тремя орудиями.Если вероятности поражения орудия цели равны. Р(А)= 0.9 х 0.8 х 0.7 = 0.504 Случай нахождения вероятности наступления хотя бы одного из событий: Р(А)= 1 – у1 х у2 х у3 х ун.... Ун=1 – Р2 х (1,2….н) Каковавероятность поражения цели хотя бы одним орудием? Р(А)=1-0.1 х 0.2 х 0.3 =0.994 Вероятность произведения двух зависимых событий А и В = произведению вероятности одного из них на условную вероятность второго Р(А х В)=Р х РВ(А)=Р(А) х РА(В) В ящике 11 деталей из которых 3 нестандартные. Событие А-извлечение нестандартных деталей. Р(А)= 3/11 В-извлечение стандартных деталей РА(В)=8/10 Р=3/11 х 8/10 =0.22 Пример:Студент пришел на экзамен зная лишь 40 из 50% программы.Найти вероятность того,что студент ответит на 3 вопроса билета. Р(А) = 40/50 Р(С)=38/48 РА(В)=39/49 Р=40/50 х 39/49 х 38/48 = 0.5 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
7.Формула Бернули. Пусть проводится n-независимых испытаний,в каждом из которых событие А может пройти с одной и той же вероятностью Р или не произойти с вероятностью: q=1 – р
Теорема:Если проводится n-независимых испытаний в каждом из которых событие А может наступить с вероятностью Р или не произойти с вероятностью q,то вероятность того,что событие А произойдет m-раз. Рn(m)=Cnm х Pm – qa-m =произведению числа комбинаций сочетаний (формула Бернули) Формулу Бернули можно прменять,если выполняются след.условия: 1.число испытаний n-конечно 2.каждое испытание имеет только 2 исхода: -событие А осуществилсь -событие А не осуществилось 3.Испытание независимое 4.Вероятность появление
события А постоянна и=р. |
8.Случайные величины,их типы и способы описания. 1.Понятие случайной величины
дискретные и непрерывные Случайной величиной называется величина которая в результате опыта может принять любые заранее неизвестные значения. x,y,z-случайные события. Для того,чтобы иметь полное представление об изучаемой случайной величине недостаточно знать какие значения она принимает.Важно знать,на сколько часто они принимаются этой величиной в результате опыта.Для этой цели используют понятие закона распределения. Законом распред.случ.величин наз.всякое соотношение устонавливающее связь между возможными знач.случайной величины и соответств.или вероятности. Наиболее удобным способом задания закона распред.явл.функция распределения. Функция распред.случ.величины х назыв.функция f(х) равная вероятности того,что случайная величина х примет знач.меньшеЯ,чем некоторое значение х из множества дейст.чисел хЭ R F(x)=P(x<x). | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
32.Корреляция.Задачи корреляционного анализа. Корреляционный анализ - метод, позволяющий обнаружить зависимость между несколькими случайными величинами.Допустим, проводится независимое измерение различных параметров у одного типа объектов. Из этих данных можно получить качественно новую информацию - о взаимосвязи этих параметров.Например, измеряем рост и вес человека, каждое измерение представлено точкой в двумерном пространстве:
Несмотря на то, что величины носят случайный характер,в общем наблюдается некоторая зависимость - величины коррелируют.В данном случае это положительная корреляция (при увеличении одного параметра второй тоже увеличивается). Возможны также такие случаи:
Взаимосвязь между переменными необходимо охарактеризовать численно, чтобы, например, различать такие случаи:
Для этого вводится коэффициент корреляции. Он рассчитывается следующим образом: Есть массив из n точек {x1,i, x2,i} Рассчитываются средние значения для каждого параметра: И коэффициент корреляции: r изменяется в пределах от -1 до 1. В данном случае это линейный коэффициент корреляции, он показывает линейную взаимосвязь между x1 иx2: r равен 1 (или -1), если связь линейна. Коэффициент r является случайной величиной, поскольку вычисляется из случайных величин. Для него можно выдвигать и проверять следующие гипотезы: 1. Коэффициент корреляции значимо отличается от нуля (т.е. есть взаимосвязь между величинами):Тестовая статистика вычисляется по формуле: и сравнивается с табличным значением коэффициента Стьюдента t(p = 0.95, f = ) = 1.96 Если тестовая статистика больше табличного значения, то коэффициент значимо отличается от нуля. По формуле видно, что чем больше измерений n, тем лучше (больше тестовая статистика, вероятнее, что коэффициент значимо отличается от нуля)2. Отличие между двумя коэффициентами корреляции значимо: Тестовая статистика:
Также сравнивается с табличным значением t(p, ) Методами корреляционного анализа решаются следующие задачи: 1) Взаимосвязь. Есть ли взаимосвязь между параметрами? 2) Прогнозирование. Если
известно поведение одного 3) Классификация и идентификация
объектов. Корреляционный анализ
помогает подобрать набор |
33.Построение корреляционного Визуальный анализ корреляционного поля позволяет сделать предположение о форме взаимосвязи двух исследуемых показателей. По форме взаимосвязи корреляционные зависимости принято разделять на линейные (см. рис. 1) и нелинейные (см. рис. 2). Рис 1. Линейная статистическая связь Рис 2. Нелинейная статистическая связь При линейной зависимости огибающая корреляционного поля близка к эллипсу. Линейная взаимосвязь двух случайных величин состоит в том, что при увеличении одной случайной величины другая случайная величина имеет тенденцию возрастать (или убывать) по линейному закону. Выявление формы статистической зависимости необходимо для выбора метода оценки тесноты ( Направленность взаимосвязи Направленность является положительной, если увеличение значения одного признака приводит к увеличению значения второго (см. рис. 3). Рис 3. Положительная направленность Рис 4. Отрицательная направленность Направленность является отрицательной, если увеличение значения одного признака приводит к уменьшению значения второго (см. рис. 4). Зависимости,
имеющие положительные или направленности, называются монотонными. Таким образом, любая монотонная зависимость характеризуется направленностью, которая может быть положительной, или отрицательной. Зависимость может и не иметь направленности. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
34.Определение
тесноты корреляционной связи. Нормированный коэффициент корреляции Браве-Пирсона |
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
35.Определение связи при Коэффициент ранговой корреляции Спирмена - это непараметрический метод, который используется с целью статистического изучения связи между явлениями. В этом случае определяется фактическая степень параллелизма между двумя количественными рядами изучаемых признаков и дается оценка тесноты установленной связи с помощью количественно выраженного коэффициента. Практический расчет коэффициента ранговой корреляции Спирмена включает следующие этапы: 1) Сопоставать каждому из признаков их порядковый номер (ранг) по возрастанию (или убыванию). 2) Определить разности
рангов каждой пары 3) Возвести в квадрат каждую разность и суммировать полученные результаты. 4) Вычислить коэффициент корреляции рангов по формуле:.
где - сумма квадратов разностей рангов, а - число парных наблюдений. При использовании коэффициента
ранговой корреляции условно оценивают
тесноту связи между Мощность коэффициента ранговой корреляции Спирмена несколько уступает мощности параметрического коэффициента корреляции. Коэффицент ранговой корреляции целесообразно применять при наличии небольшого количества наблюдений. Данный метод может быть использован не только для количественно выраженных данных , но также и в случаях, когда регистрируемые значения определяются описательными признаками различной интенсивности
|
36.Определение достоверности Оценка достоверности Способ 1 Критерий t оценивается по таблице значений t с учетом числа степеней свободы (n — 2), где n — число парных вариант. Критерий t должен быть равен или больше табличного, соответствующего вероятности р ≥99%. Способ 2 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
9.Ряд распределения Закон распределения дискретной случайной величины Определение. Соотношение между возможными
значениями случайной величины и их вероятностями
называется законом распределения дискретной случа Закон распределения может быть задан аналитически, в виде таблицы или графически. Таблица соответствия
значений случайной величины
и их вероятностей называется р Графическое представление
этой таблицы называется многоу
Пример. По цели производится 5 выстрелов. Вероятность попадания для каждого выстрела равна 0,4. Найти вероятности числа попаданий и построить многоугольник распределения.
Вероятности пяти попаданий
из пяти возможных, четырех
из пяти и трех из пяти
были найдены выше по формуле
Бернулли и равны Пример. В первой коробке содержится 10 шаров, из них 8 белых; во второй коробке 20 шаров, из них 4 белых. Из каждой коробки наугад извлекли по одному шару, а затем из этих двух шаров наугад берут один шар. Найти вероятность того, что этот шар белый.
Вероятность того, что взятый из первой коробки шар белый - что не белый - . Вероятность того, что взятый из второй коробки шар белый - что не белый - Вероятность того, что
повторно выбран шар, Вероятность того, что
повторно выбран шар, Вероятность того, что
повторно выбран шар, Вероятность того, что повторно будет выбран белый шар, равна
|
10.Числовые характеристики Числовые характеристики дискретных случайных величинМатематическое
ожидание дискретной случайной величины
есть сумма произведений всех её возможных
значений на их вероятности: Свойства математического
ожидания. Дисперсия дискретной случайной величины
есть математическое ожидание квадрата
отклонения случайной величины от её математического
ожидания: Свойства дисперсии. Среднее квадратическое
отклонение дискретной случайной величины,
оно же стандартное отклонение или среднее
квадратичное отклонение есть корень
квадратный из дисперсии: Мода дискретной случайной величины Mo(X) - это значение случайной величины, имеющее наибольшую вероятность. На многоугольнике распределения мода - это абсцисса самой высокой точки. Бывает, что распределение имеет не одну моду. Коэффициент вариации случайной величины - это относительная
мера вариации. Асимметрия (коэффициент асимметрии) случайной
величины (и дискретной, и непрерывной)
As(X) - величина, характеризующая степень
асимметрии распределения относительно
математического ожидания. Коэффициент
асимметрии дискретной случайной величины
вычисляется по формуле: Эксцесс (коэффициент эксцесса) случайной
величины (и дискретной, и непрерывной)
Ex(X) - величина, характеризующая степень
островершинности или плосковершинности
распределения, т.е. степень так называемого
«выпада». Коэффициент эксцесса дискретной
случайной величины вычисляется по формуле: Пример 2.1Составить самим
закон распределения случайной
дискретной величины X, которая может
принимать 5 значений. Найти: Показать решение Пример 2.2M(X) = 5,6; D(X) = 3,04. Вычислить M(Y) и D(Y), если Y = 3x + 2. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
11.Интегральная функция Функция распределения случайной величины, она же интегральная функция
распределения вероятностей - это функция, определяющая
для каждого значения x вероятность того,
что случайная величина (ξ) примет значение
меньшее, чем x: F(x) = P(ξ < x). Численно функция
распределения равна площади фигуры, ограниченной
сверху графиком плотности вероятности,
снизу осью ОХ, с боков - рассматриваемым
интервалом. Пример 4.1Для непрерывной случайной величины задана плотность распределения. Требуется построить графики плотности вероятности и функции распределения, определив предварительно параметр A.
|
12.Числовые характеристики Числовые характеристики непрерывных случайных величинМатематическое ожидание непрерывной случайной величины вычисляется по формуле: В частности, если с.в. задана своей плотностью вероятности на каком-либо отрезке, то и интеграл вычисляем на этом отрезке. Дисперсия непрерывной случайной величины вычисляется по формуле: Относительно пределов интегрирования - то же самое. Среднее квадратическое
отклонение непрерывной случайной величины,
оно же стандартное отклонение или среднее
квадратичное отклонение есть корень
квадратный из дисперсии: Мода непрерывной случайной величины Mo(X) - значение с.в., имеющее наибольшую вероятность. Если в задаче требуется определить моду - находим экстремум (максимум) плотности вероятности f(x). Коэффициент вариации непрерывной случайной величины
вычисляется по той же формуле, что и для
дискретной с.в.: Асимметрия (коэффициент асимметрии) случайной величины As(X) - величина, характеризующая степень асимметрии распределения относительно математического ожидания. Коэффициент асимметрии непрерывной случайной величины вычисляется по формуле: Если коэффициент
асимметрии отрицателен, то либо большая
часть значений случайной величины,
либо мода находятся левее Эксцесс (коэффициент эксцесса) случайной величины Ex(X) - величина, характеризующая степень островершинности или плосковершинности распределения. Коэффициент эксцесса непрерывной случайной величины вычисляется по формуле: Пример 5.1Для непрерывной
случайной величины задана функция
распределения. Найти математическое
ожидание, дисперсию, среднеквадратическое
отклонение. Вычислить вероятность
того, что отклонение случайной величины
от её математического ожидания не
более среднеквадратического | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
14.Равномерное распределение,его графическое изображение. Равномерное распределениеПлотность вероятности
равномерного распределения сохраняет
на интервале (a, b) постоянное значение,
вне этого интервала плотность вероятности
равна нулю. Исходя из основного свойства плотности вероятности, Математическое
ожидание равномерного распределения:
M(X) = (a + b)/2 |
15.Общее нормальное распределе Нормальное распределениеНормальное распределение имеет плотность вероятности 1/[σ√2π]·e-(x-a)2/2σ2, где a - математическое ожидание, σ - среднее квадратическое отклонение. Значения плотности нормального распределения для конкретного числового значения x можно вычислить в Excel с помощью формулы =НОРМРАСП(x;a;σ;0). Если a =
0, σ = 1, то такое нормальное распределение
называется стандартным. Значения плотности стандартного нормального
распределения можно посмотреть
в таблице или вычислить в Excel с помощью
формулы =НОРМРАСП(x;0; 1;0) Асимметрия, эксцесс,
мода и медиана нормального Интегральная
функция распределения | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
17.Вероятность попадания 1.Вероятность попадания нормально распределенной случайной величины в некоторый интервал(L,B),вычисляется по следующей формуле: Р(d>x<=B)=Ф(В-а/U)-Ф(L-a/U)
2.Вероятность того,что случ.величина х попадет в интервал: (a-L,a+L),будет вычисляться по след.формуле: P(a-L<х<а+L)=Р((х-а)<L)=2Ф(L/ При L=U,P(a-u<x<a+u)= 0,6827 L=2U,P(a-2u<x<a+2u)=0,9545 L=3U, P(a-3u<x<a+3u)=0,9973
|
18.Правило 3-х сигма. Правило 3-х сигм.Событие,состоящее
в том.что нормально распределенная случ.величина
примет знач.отлич.от своего математич.ожидания
больше чем на утроенное знач.среднеквадрат.отклон. ПРИМЕР:Дана нормальная распред.случ.велич.с парамерами: а=10,U=2. Найти вероятноть того,что в результате испытания величина примет значение в промежутке(8;12).Записать формулу плотности вероятности данной случайной величины. F(x)=1/2(корень из 2П) х е –(х-10)2/8 P(8;12)=Ф(12-10/2)-Ф(8-10/2)= | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
19.Основные понятия
математической статистики: 1.Предмет и задачи математ.статистики. Математ.стат.это раздел математ.,в
которой изуч.методы сбора,систематизации
и обработки результатов наблюд.,массовых
случ.явл.для выявл.соответств. Цель математ.статистики состоит в создании методов сбора и обработки статистич.данных для получ.научн.и практических выводов. Говорят,что математ.статистика-это
теория принятия решений в условиях неопред.Предметом
исслед.мат.статистики явл.совокупность
объектов объедин.некоторыми признаками.Признаки
объектов могут быть качественными:пол,образование)
,количественными(возраст, 2.Выборочный метод СПЛОШНОЕ обследование дает объективную хар-ку генеральной совокупности объекта.Однако обследование всей совокупности объектов процесс трудоемкий,а иногда и невозможный,поэтому на практике применяют выборочный метод исследования. Выборочный метод исследования заключ.в том,что из ген.совокупн.объектов извлекаются некот чать объектов для непосредственного изучения.эти объекты образуют выборочную совокупн.объекта.Кол-во объектов ген.совокупности и выборочной называют их объемом. Исследовать изучает и анализирует выборочную совокупность и на основании получ.результатов делает выводы о параметрах ген.совокупности.Таким образом сущность выборочного метода состоит в том,чтобы по некоторой части ген.совокупности выносить суждения о ее свойствах в целом. Формиров.и изуч.выборочной совокупности имеет смысл тольучаеко в том случае,если она объективно отражает свойства ген.совокупн.с точки зрения структуры и величины интересующего нас варьируемого признака.В этом случае говорят,что выборка явл.репрезентативной.Чтобы выборка была репрезентативной: 1.Каждый объект из ген совокупн.отобран случайно. 2.Осущ.выбор оптимального объема выборки(чем меньше объем выборки,тем меньшей степени она предоставл.совокупность) Пусть из ген.совокупн.объектов N извлечена выборочная совокупн.n.Измерена некоторая случ.величина х(интересующий нас признак велич.х прин.след.снач.х1х2х3….хn.Этот ряд значений называется-простым статистическим рядом.Отдельные знач.этого ряда наз.вариантами.Если варианта х;появилось m…то число m называют частотой. Отношение частоты к выборке
наз.относит.частотой. Вариационный ряд-это |
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
20.Безинтервальный вариационный ряд.Полигон,кумулята. В зависимости от характера вариации признака различ: 1.безинтервальный(дискретный вариационный ряд)Это таблица,в первой строке9столбце)которой записаны упорядоченные значения вариант. А во 2-ой строке соответств.им частоты или относит.частоты. Данный ряд строится если анализируется выборка небольшого объема и в ней встречается большое кол-во одинаковых значений. Пример:Получ.эксперимент. 24,22,23,28,24,23,25,27,25,25 N=10 девочек Ранжированный ряд:22,23,23,24,24,25,25,25,
|
21.Группировка
статистических данных в виде
интервального вариационного ря Интервальный вариационный ряд. Если изучаемая случайная
величина является непрерывной, то ранжирование
и группировка наблюдаемых Нецелесообразно также построение
дискретного ряда для дискретной
случайной величины, число возможных
значений которой велико. В подобных
случаях следует построить Интервальным вариационным рядом называется упорядоченная совокупность интервалов варьирования значений случайной величины с соответствующими частотами или частостями попаданий в каждый из них значений величины. Построение интервального вариационного ряда рассмотрим на примере. При измерении диаметра валиков после шлифовки получены следующие результаты: 6,75; 6,77; 6,77; 6,73; 6,76; 6,74; 6,70; 6,75; 6,71; 6,72; 6,77; 6,79; 6,71; 6,78; 6,73; 6,70; 6,73; 6,77; 6,75; 6,74; 6,71; 6,70; 6,78; 6,76; 6,81; 6,69; 6,80; 6,80; 6,77; 6,68; 6,74; 6,70; 6,70; 6,74; 6,77; 6,83; 6,76; 6,76; 6,82; 6,77; 6,71; 6,74; 6,77; 6,75; 6,74; 6,75; 6,77; 6,72; 6,74; 6,80; 6,75; 6,80; 6,72; 6,78; 6,70; 6,75; 6,78; 6,78; 6,76; 6,77; 6,74; 6,74; 6,77; 6,73; 6,74; 6,77; 6.74; 6,75; 6,74; 6,76; 6,76; 6,74; 6,74; 6,74; 6,74; 6,76; 6,74; 6,72; 6,80; 6,76; 6,78; 6,73; 6,70; 6,76; 6,76; 6,77; 6,75; 6,78; 6,72; 6,76; 6,78; 6,68; 6,75; 6,73; 6,82; 6,73; 6,80; 6,81; 6,71; 6,82; 6,77; 6,80; 6,80; 6,70; 6,70; 6,82; 6,72; 6,69; 6,73; 6,76; 6,74; 6,77; 6,72; 6,76; 6,78; 6,78; 6,73; 6,76; 6,80; 6,76; 6,72; 6,76; 6,76; 6,70; 6,73; 6,75; 6,77; 6,77; 6,70; 6,81; 6,74; 6,73; 6,77; 6,74; 6,78; 6,69; 6,74; 6,71; 6,76; 6,76; 6,77; 6,70; 6,81; 6,74; 6,74; 6,77; 6,75; 6,80; 6,74; 6,76; 6,77; 6,77; 6,81; 6,75; 6,78; 6,73; 6,76; 6,76; 6,76; 6,77; 6,76; 6,80; 6,77; 6,74; 6,77; 6,72; 6,75; 6,76; 6,77; 6,81; 6,76; 6,76; 6,76; 6,80; 6,74; 6,80; 6,74; 6,73; 6,75; 6,77; 6,74; 6,76; 6,77; 6,77; 6,75; 6,76; 6,74; 6,82; 6,76; 6,73; 6,74; 6,75; 6,76; 6,72; 6,78; 6,72; 6,76; 6,77; 6,75; 6,78. Для построения интервального
ряда необходимо определить величину
частичных интервалов. Считая, что
все частичные интервалы имеют
одну и ту же длину, для каждого
интервала следует установить его
верхнюю и нижнюю границы, а затем
в соответствии с полученной упорядоченной
совокупностью частичных Просматривая результаты наблюдений, находим, что наибольшим значением случайной величины х наиб является 6,83, а наименьшим х наим – 6,68. Найдем размах варьирования R. : R=6,83-6,68=0,15. Выберем число интервалов . Для того чтобы вариационный ряд не был слишком громоздким, обычно число интервалов берут от 7 до 11. Положим предварительно v=7, тогда длина частичного интервала
За начало первого интервала рекомендуется брать величину хнач = хнаим – 0,5h. В данном случае хнач = 6,67. Конец последнего интервала должен удовлетворять условию
Промежуточные интервалы получают прибавляя к концу предыдущего интервала длину частичного интервала h (в рассматриваемом случае h=0,02). Теперь, просматривая результаты наблюдений, определяем, сколько значений признака попало в каждый конкретный интервал. При этом в интервал включают значения случайной величины, большие или равные нижней границе и меньшие верхней границы. В таблице частота mi , показывает, в скольких наблюдениях случайная величина приняла значения, принадлежащие тому или иному интервалу, причем нижний конец интервала входит в него, а верхний—нет. Такие частоты обычно называют интервальными, а их отношение к общему числу наблюдений—интервальными частостями. При вычислении интервальных частостей округление результатов следует проводить таким образом, чтобы общая сумма частостей была равна 1:
Для данного примера интервальный вариационный ряд имеет вид:
По данным интервального
ряда строят гистограмму частот или
гистограмму относительных
Для гистограммы частот: площадь каждого прямоугольника равна частоте интервала, сумма площадей всех прямоугольников равна объему выборки. Для гистограммы частостей: площадь каждого прямоугольника равна частости интервала, сумма площадей всех прямоугольников равна 1. Вариационные ряды задают статистическое распределение выборки: соответствие меж | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
22-23.Характеристика Точечной
оценкой генеральной средней яв Выборочным средним называется среднее арифметическое значение признака выборочной совокупности. Если все значения x1, x2,..., xn признака выборки различны (или если данные не сгруппированы), то: Выборочное среднее является основной характеристикой положения, показывает центр распределения совокупности, позволяет охарактеризовать исследуемую совокупность одним числом, проследить тенденцию развития, сравнить различные совокупности (выборочное среднее является той точкой, сумма отклонений наблюдений от которой равна 0). Для оценки степени разброса
(отклонения) какого-то показателя от его среднего
значения, наряду с максимальным и минимальным
значениями, используются понятиядисперсии и стандартног Дисперсия выборки или выборочная дисперсия (от английского variance) – это мера изменчивости переменной. Термин впервые введен Фишером в 1918 году. Выборочной дисперсией Dв называют среднее арифметическое квадратов отклонения наблюдаемых значений признака от их среднего значения .Если все значения x1, x2,..., xn признака выборки объема n различны, то: Если же все значения признака x1, x2,..., xn имеют соответственно частоты n1, n2,..., nk, причем n1 + n2 +...+ nk = n, то Дисперсия меняется от нуля до бесконечности. Крайнее значение 0 означает отсутствие изменчивости, когда значения переменной постоянны. Среднее квадратическое отклонение (стандартное отклонение), (от английского standard deviation) вычисляется как корень квадратный из дисперсии. разбросаны значения переменной относительно среднего. Непараметрическими
характеристиками положения являются мода и меди Модой Mo называется варианта, имеющая наибольшую частоту или относительную частоту. Медианой Me называется варианта, которая делит вариационный ряд на две части, равные по числу вариант.При нечетном числе вариант (n=2k+1) Me = xk+1, а при четном числе вариант (n=2k) Me = (xk + xk+1)/2. |
24.Коэффициент вариации. Коэффициент вариации используют для сравнения рассеивания двух и более признаков, имеющих различные единицы измерения. Коэффициент вариации представляет собой относительную меру рассеивания, выраженную в процентах. Он вычисляется по формуле: , где - искомый показатель, - среднее квадратичное отклонение, - средняя величина.
Если V<10%,то вариативность выборочной совокупности низкая. Если от 20 до 10-средняя 20 до 30-высокая Более 30-очень высокая | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
25.Статистическая ошибка выбор Средняя ошибка выборки выражает среднее квадратическое отклонение выборочной средней от генеральной средней СОВ зависит: 1) от колеблемости признака в генеральной совокупности 2) от числа отобранных единиц. СОВ показывает, какие
возможны отклонения характеристик
выборочной совокупности от соответствующих
характеристик генеральной О величине средней ошибки выборки судят с определенной вероятностью, на которую указывает коэффициент доверия (t) Таким образом, зная
выборочную среднюю и предельную
ошибку выборки, можно определить пределы,
в которых находится СОВ альтернативного признака определяется по формуле ; - доля выборочной совокупности ПОВ альтернативного признака Зная выборочную
долю признака и предельную ошибку
выборки, можно определить границы,
в которых заключена |
26.Интервальная оценка Пусть по выборке достаточно большого объема, , и при заданной доверительной вероятности необходимо определить доверительный интервал для математического ожидания , в качестве оценки которого используется среднее арифметическое (среднее выборочное) . Закон распределения оценки математического ожидания близок к нормальному (распределение суммы независимых случайных величин с конечной дисперсией асимптотически нормально). Если потребовать абсолютную надежность оценки математического ожидания, то границы доверительного интервала будут бесконечными . Выбор любых более узких границ связан с риском ошибки, вероятность которой определяется уровнем значимости , где значения выбираются достаточно близкими к единице, например, 0,9, 0,95, 0,98, 0,99. Величину называют надежностью или доверительной вероятностью. Интерес представляет максимальная точность оценки, т.е. наименьшее значение интервала. Для симметричных функций минимальный интервал тоже будет симметричным относительно оценки . В этом случае выражение для доверительной вероятности имеет вид , где – абсолютная погрешность оценивания. Нормальный закон полностью определяется двумя параметрами – математическим ожиданием и дисперсией . Величина является несмещенной, состоятельной и эффективной оценкой математического ожидания, поэтому ее значение принимаем за значение математического ожидания в качестве точечной оценки. Будем полагать, что дисперсия известна, тогда выборочное среднее – нормально распределенная случайная величина с параметрами . Для такой случайной величины вероятность попадания на симметричный относительно математического ожидания интервал выражается через функцию Лапласа , где . При заданной надежности , уравнение можно решить приближенно с помощью таблицы значений функции Лапласа (см. приложение, таблица 1). Если точного значения в списке значений нет, то надо найти два ближайших к нему значения, одно большее, а другое меньшее, чем , и найти их среднее арифметическое. Известное значение параметра позволяет записать абсолютную погрешность . Теперь можно указать симметричный интервал . Полученное соотношение означает, что доверительный интервал покрывает неизвестный параметр (математическое ожидание) с вероятностью (надежностью) , а точность оценки . При фиксированном объеме выборки из оценки следует, что чем больше доверительная вероятность , тем шире границы доверительного интервала (тем больше ошибка в оценке математического ожидания). Чтобы снизить ошибку в оценке значения, можно увеличить объем выборки. При этом, чтобы снизить относительную погрешность на порядок, необходимо увеличить объем выборки на два порядка.
27.Интервальная
оценка математического Доверительным интервалом называется интервал, построенный с помощью случайной выборки из распределения с неизвестным параметром, такой, что он содержит данный параметр с заданной вероятностью α. В педагогике
наиболее распространенным где – точность оценки, n – объём выборки, – выборочное среднее, t – аргумент функции Лапласа, при котором . Рассмотрим пример. Пусть среднее квадратическое отклонение σ нормально распределенного признака X генеральной совокупности равно 5, объём выборки n равен 100 и выборочное среднее . Найдем доверительный интервал математического ожидания a при α=0,9. Все величины, кроме t, известны. Найдем t по специальной таблице, исходя из соотношения Получим, что t=1,65, следовательно: или 19,175≤a≤20,825. Таким образом,
можно сделать вывод о том,
что математическое ожидание
генеральной совокупности с Во многих
педагогических задачах Статистической называется зависимость, при которой изменение одной из величин влечет изменение распределения другой. В частности, статистическая зависимость проявляется в том, что при изменении одной из величин изменяется выборочная средняя другой. В этом случае статистическую зависимость называюткорреляционной.
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
28.Принципы и
алгоритм проверки СТАТИСТИЧЕСКОЙ ГИПОТЕЗОЙ назыв Рассмотрим основные этапы
проверки гипотезы на примере
проверки гипотезы о равенстве МО нормально распределенной случайной
величины заданному значению. T = (X - C)*n1/2/S где n - объем выборки. ЭТАП III. Исследователь назначает уровень значимости. Пусть α=0,05. По выбранному уровню значимости т.к. известно распределение T-статистики при справедливости исходной гипотезы определяются две граничные величины T-статистики (T1 и T2), которые делят значения T-статистики на две области. При справедливости гипотезы вероятность попадания статистики в интервал (T1,T2) составляет величину 1-α (0,95 в нашем случае), вероятность принятия T-статистикой значений вне интервала (T1,T2) не превышает α (в нашем случае 0,05). Первая область называется ОБЛАСТЬЮ ПРИНЯТИЯ ГИПОТЕЗЫ,вторая - КРИТИЧЕСКОЙ ОБЛАСТЬЮ. ЭТАП IV. Извлекается выборка и вычисляется статистика. (В нашем случае Tрасч). ЭТАП V. Если вычисленное значение попадает
в область принятия гипотезы (в нашем случае T1<Tрасч<T2),
то говорят, что ДАННЫЕ НЕ ПРОТИВОРЕЧАТ ГИПОТЕЗЕ. Если Tрасч<T1 или Tрасч>T2 ( Необходимо подчеркнуть, что отвергает или принимает гипотезу исследователь. Процедура проверки лишь обосновывает приведенные выше утверждения. Утверждение - данные не противоречат гипотезе используется потому, что возможно справедлива не данная гипотеза, а некая другая, близкая к этой гипотезе (например H0: Mx=C1). Утверждение - данные противоречат гипотезе используется потому, что вероятность получить такой результат хоть и мала, но отлична от нуля. ЕСЛИ ДАННЫЕ ПРОТИВОРЕЧАТ ГИПОТЕЗЕ И ГИПОТЕЗА ОТВЕРГАЕТСЯ, ТО ВЕРОЯТНОСТЬ ОШИБКИ ИССЛЕДОВАТЕЛЯ (гипотеза все таки верна) НЕ ПРЕВЫШАЕТ α (заданного уровня значимости). |
29.Проверка гипотезы
о равенстве двух генеральных
средних по независимым Критерий Стьюдента (t-критерий)Критерий позволяет найти При использовании критерия можно
выделить два случая. В первом случае
его применяют для проверки гипотезы
о равенстве генеральных Во втором случае, когда одна и
та же группа объектов порождает числовой
материал для проверки гипотез о средних,
используется так называемый парный t-критерий. Выборки при этом называют зависимыми, связанным а) случай независимых выборокСтатистика критерия для случая несвязанных, независимых выборок равна:
где , — средние арифметические в экспериментальной и контрольной группах, - стандартная ошибка разности средних арифметических. Находится из формулы:
, где n1 и n2 соответственно величины первой и второй выборки. Если n1=n2, то стандартная ошибка разности средних арифметических будет считаться по формуле:
где n величина выборки. Подсчет числа степеней свободы осуществляется по формуле: k = n1 + n2 – 2. При численном равенстве выборок k Далее необходимо сравнить полученное значение tэмп с теоретическим значением t—распределения Стьюдента (см. приложение к учебникам статистики). Если tэмп<tкрит, то гипотезаH0 принимается, в противном случае нулевая гипотеза отвергается и принимается альтернативная гипотеза. Рассмотрим пример использования t-критерия Стьюдента для несвязных и неравных по численности выборок. Пример 1. В двух группах учащихся — экспериментальной и контрольной — получены следующие результаты по учебному предмету (тестовые баллы; см. табл. 1).[1] Таблица 1. Результаты эксперимента
Общее количество членов выборки: n1=11, n2=9. Расчет средних арифметических: Хср=13,636; Yср=9,444 Стандартное отклонение: sx=2,460; sy=2, По формуле (2) рассчитываем стандартную ошибку разности арифметических средних:
Считаем статистику критерия:
Сравниваем полученное в эксперименте значение t с табличным значением с учетом степеней свободы, равных по формуле (4) числу испытуемых минус два (18). Табличное значение tкрит равняется 2,1 при допущении возможности риска сделать ошибочное суждение в пяти случаях из ста (уровень значимости=5 % или 0,05). Если полученное в эксперименте эмпирическое значение t превышает табличное, то есть основания принять альтернативную гипотезу (H1) о том, что учащиеся экспериментальной группы показывают в среднем более высокий уровень знаний. В эксперименте t=3,981, табличное t=2,10, 3,981>2,10, откуда следует вывод о преимуществе экспериментального обучения. Здесь могут возникнуть такие вопросы: 1. Что если полученное в опыте значение t окажется меньше табличного? Тогда надо принять нулевую гипотезу. 2. Доказано ли преимущество 3. Что если в контрольной группе результаты окажутся выше, чем в экспериментальной? Поменяем, например, местами, сделав средней арифметической экспериментальной группы, a — контрольной:
Отсюда следует вывод, что новый метод пока не проявил себя с хорошей стороны по разным, возможно, причинам. Поскольку абсолютное значение 3,9811>2,1, принимается вторая альтернативная гипотеза (Н2) о преимуществе традиционного метода. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
31.Проверка гипотезы о U-критерий Уилкоксона, Манна и Уитни проверяет гипотезу о принадлежности двух выборок одной и той же генеральной совокупности : . Эта гипотеза включает также равенство значений медиан и равенство средних значений . Для вычисления статистики упорядочивают значений объединенной выборки, определяют сумму рангов , соответствующую элементам первой выборки, и сумму рангов второй . Вычисляем Для контроля правильности можно использовать равенство . Статистика критерия имеет вид Проверяемая гипотеза отклоняется, когда значение статистики оказывается меньше критического. Считается, что U-критерий является самым строгим непараметрическим критерием. Для достаточно больших выборок ( ), когда объемы выборок не слишком малы ( ), используется статистика
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||