Автор работы: Пользователь скрыл имя, 13 Января 2014 в 02:37, шпаргалка
1. Событие – подмножество множества элементарных исходов.
Достоверное – обязательно произойдет в данном опыте.
Невозможное – никогда не произойдет в этом опыте.
Случайное – может произойти, а может не произойти в этом опыте.
Несовместны события А и В – если появление одного события исключает появление второго.
1. Событие – подмножество множества элементарных исходов.
Достоверное – обязательно произойдет в данном опыте.
Невозможное – никогда не произойдет в этом опыте.
Случайное – может произойти, а может не произойти в этом опыте.
Несовместны события А и В – если появление одного события исключает появление второго.
Несовместна группа событий – если события попарно несовместны.
Совместны – если появление одного события не исключает появления второго.
Равновозможные – если каждое событие в силу симметрии опыта не более возможно, чем остальные.
Событие противоположно событию А – если событие А не происходит.
Полная группа событий – образуется событиями А1, А2,…Аn если они попарно несовместны и в результате опыта происходит хоть оно из них.
Пространство элементарных событий Ω – множество всех элементарных событий, исходов. Исходы, составляющие событие, - благоприятствующие данному событию.
2. Комбинаторика – часть математики, которая занимается подсчетом числа комбинаций, состоящих из элементов данного множества.
Принцип произведения: пусть существует m множеств А1,А2,…Аm. Множество А1 состоит из n1 элементов, А2 из n2…Аm из nm. Будем последовательно составлять комбинации m элементов так, что в каждую комбинацию входило по 1 элементу каждого множества. N=n1*n2*…*nm
Упорядоченное множество – если установлен порядок следования элементов. Комбинации из эл-тов упорядоченного множества – наборы, выборки.
Перестановка – упорядоченное множество из n элементов. Отличаются др. от др. лишь порядком следования элементов. Число перестановок Pn множества из n элементов Pn=n!
Размещения из n элементов по m (m<=n) – упорядоченные наборы по m элементов из данных n. Отличаются др. от др. элементами и их порядком. Число размещений из n элементов по m: Amn=n!/(n-m)!
Сочетания из n элементов по m – неупорядоченные наборы по m элементов из данных n. Число сочетаний: Сmn=n!/(m!(n-m)!)
3. Классическое определение вероятности:
Пусть пространство Ω – полная группа равновозмож-ных n исходов. Ω={w1,w2…wn}. Пусть событие А состоит из m исходов А={wi1,wi2…wim}. Тогда вероятностью Р(А) события А считают отношение m благоприятных исходов к числу n всех исходов опыта
Свойства вероятности:
0<=P(A)<=1
P(Ω)=1
P(Ø)=0
4. Статистическая вероятность.
Пусть в n испытаниях событие А произошло m раз, тогда относительная частота события А, W(A), равняется: , n – число всех опытов; m – число благоприятных исходов. Замечание: вероятность соб А вычисляется до опыта, отн частоту вычисляют после опыта. Если увеличить кол-во опытов, то замечено, что изменяясь от каждой серии опытов с увел числа опытов, отн частота колеблется около некоторого числа Р ( т е обладает устойчивостью). Это число Р принимают за вероятность соб А и называют статистической вероятностью этого события. Для достаточно больших n отн частота служит оценкой вероятности события
5. Геометрическая вероятность.
Классическая вероятность соб А определялась, когда множество всех исходов опыта конечно. На практике часто встречаются задачи, когда число исходов бесконечно. В этом случае можно определить круг зудач, связанных с геом вероятностью события.
Пусть имеется некоторая фигура G. Под мерой фигуры mes G понимаем длину ( в случае отрезка прямой), площадь (плоское пространство), объем ( пространственное тело).
Пр. Пусть фигура . Предположим, что случайная точко бросается на фигуру G, причем попадание в любую точку фигуры G равновозможно, тогда вероятность того, что случайная точка попадет в фигуру g равна:
6. Операции над с7.Теорема сложения вероятностей несовместных событий.
Теор. Пусть А и В несовместные события. Тогда вероятность суммы этих событий=сумме их вероятностей. Р(А+В)=Р(А)+Р(В) (1).
Д-во: Пусть число всех исходов опытов n, пусть событию А благоприятствуют m1, из них В-m2 из них.
*- исходы
m1-A m2-B
{*****}***********{*****}**
n
P(A)=m1/n P(B)=m2/n
A+B=m1+m2 P(A+B)=(m1+m2)/n=m1/n+m2/n=P(
8.В-ть противоположного событ. В-ть суммы n событ, образ. полн. груп событ.
Теор.Вер-ть противоположного события Р(Ã)=1-Р(А)
Д-во: А+Ã=a А*Ã=f Р(А+Ã)=Р(a) Р(a)=1 Р(А)+Р(Ã)=1 Р(Ã)=1-Р(А)
Пример. Вер-ть попадания в мишень при 1 выстреле для стрелка явл. 0.7 Опред. Вер-ть промаха.
А-попад.
Р(А)=0.7
Ã-промах
Р(Ã)=1-0.7=0.3
Теор. В-ть суммы n событ. образ полн группу
Пусть соб-я А1,А2,….,Аn обр полную группу соб Тогда вер-ть суммы этих событ=1 Р(А1+А2+…+Аn)=1 Тогда имеет место ф-ла Р(А1)+ Р(А2)+… +Р(Аn)=1.
9. Условная вероятность. Теорема произведения вероятностей зависимых событ.
Условн. вер-тью наз вер-ть события В при условии, что соб А уже наступило. Условн вер-ть обознач Р(В/А).
Теорема произвед двух соб=произвед вероятностей одного из них на условную вер-ть другого события. Р(АВ)=Р(А)*Р(В/А) Предположение что 1 событ произошло Р(АВ)=Р(А)*Р(В/А) Р(АВ)=Р(В)*Р(А/В)
Теор. Умен. Р(АВ)=Р(А)*Р(В/А)
Д-во: n- всех исходов, А-m исх, АВ-k исх
m-A
{{****}******}
k-AB
P(AB)=k/n-вер-тьсобыт Р(В/A)=k/m P(AB)=k/n*m/n P(A)=m/n P(AB)=k/m*m/n=P(A)*P(B/A)
Теор. P(A1,A2,...An)=P(A1)P(A2/A1)P(
событиями
1) сумма двух событий А и В – это А+В(U), это значит происходит хотя бы одно событие. Суммой n событий называется событие , которое обозначает, что происходит хотя бы одно из этих событий.
2) произведением событий
А и В называется событие
АВ и заключается в том, что
события являются
53. Статистические
гипотезы. Нулевая и конкурирующая
гипотезы. Простые и сложные,
Статистической называют гипотезу о виде неизвестного распределения, или о параметрах известных распределений.
Нулевой (основной) называют выдвинутую гипотезу Н0.
Конкурирующей (альтернативной) называют гипотезу Н1, которая противоречит нулевой.
Гипотезы относ-но параметров распределения наз. параметрическими.
Гипотезы бывают простые и сложные.
Простая – гипотеза, содержащая только одно предположение.
Сложная – гипотеза, которая состоит из конечного или бесконечного числа простых гипотез.
Стат. критерием (значимости) наз. СВ X, кот. является ф-цией выборки K=К(х1, х2, х3,…,хn) (статистической) и служит для проверки гипотезы, с ее помощью принимается решение о принятии или отвержении гипотезы Н0.
Критическая область – совок – ть значений критерия, при которых нулевую гипотезу отвергают.
Область принятия гипотезы (область допустимых значений) – совок-ть значений критерия, при кот. гипотезу принимают.
13.Формула полной вероятности.
Предположим, что событие А происходит
одновременно с одним из событий
H1, H2,…,Hn, попарно несовместных
и образующих полную группу событий.Т.к.
заранее неизвестно, с каким из событий
Hi событие А произойдет, то H1…Hn
– гипотезы. Вероятность P(A)=P(H1)P(A/H1)+P(H2)P(A/H2)
Доказательство:А=AH1+AH2+…+AHn
Замечание1: Т.к. H1,…,Hn образуют полную вероятность, то сумма вероятностей равна 1: P(H1)+ P(H2)+…+ P(Hn)=1.
Замечание2: Вероятности гипотез определяются до опыта и называются априорными.
14.Формула Байеса.
Предположим, событие А произошло.
Какизменятся при этом вероятности гипотез
P(AB)=P(A)*P(B/A), P(AB)=P(B)P(A/B), P(AHi)=P(A)P(Hi/A)=P(Hi)P(A/
Hi). Следовательно P(Hi/A)=
, i =
.Заменив по формуле P(A)=P(H1)P(A/H1)+P(H2)P(A/H2)
Эти формулы называют формулами Байеса. Они позволяют переоценить вероятности гипотез после того, как становится известным результат испытания, в итоге которого появилось событие А.
15.Последовательность
Пусть производится серия из n независимых испытаний и в каждом испытании событие А наступает с одной и той же вероятностью P(A)=p и не наступает с вероятностью . Условно появление события А называется «успехом», а не появление - «неудачей». Испытания называются независимыми, если исход каждого последующего не зависит от исходов предыдущих испытаний. Последовательность независимых испытаний такого рода называется схемой Бернулли. Вероятность того, что в n независимых испытаниях событие А произойдет ровно m раз – Pn (m). Тогда имеет место формула Бернулли: Pn (m)= .
Доказательство: Рассмотрим серию из n испытаний, в которых событие А произошло m раз: .Вычислим вероятность этого произведения: P ( = =pmqn – m . Pn (m)= .
16. Найвер-шее число поступлений события в схеме Бернулли.
Частота m0, кот-ой соот-ет наиб-ая вер-ть Рn(m) в данной серии незав-ых исп-ий наз.
найвер-им числом появления соб-ия А.
np-q<=m0<=np+p
n -- число испытаний
р(А)=р q=1-p
По определению числа m0 имеем Рn(m0)>=Pn(m0+1)
Рn(m0)>=Pn(m0-1)
Рn(m0)/ Pn(m0+1)>=1
Рn(m)=Cmn pm qn-m
Рn(m0)/
(m0+1)q>=(n-m0)p
m0q+q>=np-m0p
m0q+m0>=np-q
m0(q+p)>=np-q , q+p=1
m0 >= np-q
Аналогично Рn(m0)/ Pn(m0-1)>=1 получим, что m0 <=np+p
np-q<=m0<=np+p
Замечание: Если число np+p-целое , то имеем два найвер-ших числа - m0 и m0+1,
если np+p - дробное,
то имеем одно найвер-шее число -m0.
17. Локальная теорема Муавра-Лапласса.
Рассмотрим последов-ть n-нез-ых исп-ий Бернулли
Т-ма: Если вер-ть наступления события А в n-незав-ых исп-ях постоянна и равна р, причем р
не равно 0 и 1, то вер-ть Pn(m) того, что в n-исп-ях соб. А наступит ровно m раз приближенно равна
, где , - Ф-ция Гаусса
e=2,7182
18 φ(х) – функция Гаусса, малая функция Лапласа. φ(х) –табулированная. Имеются таблицы для х≥0. При других значениях х используют свойства функции Гаусса.
Свойства:
Lim φ(х)= lim e- x2/2 /√2π
19. Интегральнвая т-ма Лапласа.
Т-ма: Если в серии из n-нез-ых исп-ях вер-ть р появления события А в каждом исп-нии
постоянная и не равна 0 и не равна 1, то вер-ть Рn(m1; m2) того, что n-исп-ия соб. А произойдет от m1
до m2 раз . При достаточно больших n будет приблизительно равна
Pn(m1;m2)=1/2(Ф(x2)- Ф(x1)), где
, Ф(x)- ф-ция Лапласа
m1≤ m≤ m2
Для х≥0 имеются таблицы функции Ф(х).
При других значениях х используются свойства
функции:Ф(х)-нечетнах)-
Для х>5 Ф(х)≈1
21.Вер-ть отклонения отн частоты от пост вер-ти в п незав испытпниях
Рассмотрим n-независимых испытаний Бернулли в каждом из которых события А происходят с вероятностью р. Причем р≠0, р≠1.
Считаем также, что число испытаний n достаточно велико. Относительная частота появления события А в этой серии будет m/n.
Разность m/n-p называется отклонением относительной частоты от постоянной вероятности.
Ε>0 Определим вероятность (Р(m/n-p)≤ε)-?
Определим вероятность того, что
относительная частота
Рассмотрим (m/n-p)≤-ε↔ε≤(m/n-p)≤ε.
22. Ф-ла Пуассона. Допустим производиться серия из независимых испытаний, причём n очень велико (n→∞), вер. появл. соб. А в каждом исп. очень мала (р→0) p<0.01 причём np=λ=const, тогда вер. Рn(m) того, что в n исп. соб. А произойдёт ровно m раз ≈ вычисл. по ф-ле Рn(m) ≈℮- λ λm/m! при np<10. Док-во:
Рn(m)=Сnmpmqn-m=│q=1-p,
np=λ,p=λ/n│= n!/m!(n-m)!)*pm(1-p)n-m=1·2·3…
23. СВ. Дискретные СВ. Закон распр. ДСВ. Полигон распр. ДСВ. СВ называют величину, кот. в результ. исп. принимает то или иное значение из множества своих знач., причем неизв. какое.