Автор работы: Пользователь скрыл имя, 18 Декабря 2012 в 23:11, курс лекций
Основными понятиями Теория вероятности "ТВ" являются: событие - результат испытаний; испытание - комплекс условий, при которых появляется данное случайное событие. Случайным называют событие, наступление которого нельзя достоверно предвидеть. Случайные события называются массовыми, если они в одинаковых условиях происходят одновременно в большом числе случаев, или многократно повторяются.
Основными понятиями Теория вероятности "ТВ" являются: событие - результат испытаний; испытание - комплекс условий, при которых появляется данное случайное событие. Случайным называют событие, наступление которого нельзя достоверно предвидеть. Случайные события называются массовыми, если они в одинаковых условиях происходят одновременно в большом числе случаев, или многократно повторяются. Основными характеристиками случайных событий являются относительная частота F(A) его появления, т.е. отношение числа m случаев, благоприятствующих данному событию к общему числу n возможных случаев: F(A) = m/n и вероятность события P(A) = m/n. Вероятность события А равна отношению числа m случаев благоприятствующих появлению события А, к общему числу возможных событий n - это классическое определение вероятности. Статистическое определение вероятности: Вероятность события А равна: Р(А) = lim m/n®¥. вероятность случайного события есть предел, к которому стремится относительная частота его появления при неограниченном увеличении числа наблюдений. События называют достоверными, если они происходят всегда, или вероятность которых равна единице. События называют невозможными, если они не происходят никогда, или вероятность которых равна нулю. События называют несовместимыми, если при каждом испытании появление одного из возможных событий исключает появление остальных. События называют совместимыми, если они могут происходить одновременно. События называют независимыми, если вероятность появления одного из них не зависит от наступления других событий. Событие В называется зависимым от события А, если его вероятность Р(В) меняется в зависимости от того, произошло событие А или нет. В этом случае вводится понятие условной вероятности, под которой понимается вероятность события В при условии, что событие А произошло. Обозначают это так: Р( В / А). Систему событий А1 А2 ..., Аn называют полной, если при каждом испытании обязательно наступает одно (и только одно ) из этих событий. Сумма вероятностей событий, составляющих полную систему, равна 1: Р(А1 ) + Р(А2 ) + ... + Р(Аn ) = 1. Два единственно возможных несовместимых события называют противоположными, если при каждом испытании обязательно происходит одно из них, или Р(А) + Р(А) = 1. Событие называют сложным, если оно состоит из одновременного наступления нескольких событий.
Теорема сложения: Вероятность появления при испытании одного ( любого ) из нескольких несовместимых событий Р ( А или В ) равна сумме их вероятностей: P( A или B) = P(A) + P(B)
Теорема умножения для независимых событий: Вероятность Р(А и В) сложного события, состоящего из совпадения двух независимых простых событий А и В, равна произведению вероятностей Р(А) и Р(В) этих событий: Р(А и В) = Р(А)· Р(В). Теорема умножения для зависимых событий: Вероятность Р(А и В) сложного события, состоящего из совпадения двух зависимых простых событий А и В (причем В зависит от А), равна произведению вероятности первого из них Р(А) на условную вероятность второго Р(В / А) в предположении, что первое произошло: Р(А и В) = Р(А) Р( В / А).
Теорема о полной вероятности: вероятность события А, которое может произойти с одной из образующих полную группу гипотез (Н) равна сумме произведений вероятностей гипотез на вероятность события при каждой гипотезе: Р(А) = SP(Hi)· P(A/Hi).
Теорема Байеса: вероятность гипотезы в результате которой могло произойти данное событие равна отношению произведения вероятности гипотезы на вероятность события при данной гипотезе к вероятности события: P(Hi/A) = [P(Hi)· P(A/Hi)]/ P(A).
Случайные величины и законы их распределения. Случайной называют такую величину, которая может принимать различные численные значения в зависимости от тех или случайных обстоятельств. Дискретной называют случайную величину, которая принимает счетное множество числовых значений. Непрерывной называют величину, принимающую любые значения в определенном интервале. Числовыми характеристиками дискретных случайных величин являются: МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ М(х) (среднее значение) случайной величины – это сумма произведений всех возможных ее значений (Хi) на вероятности этих значений Pi:
M(х) = x1P1 + x2P2 + x3P3 + … + x n Pn =å xiPi ДИСПЕРСИЯ случайной величины D(x) - это
математическое ожидание квадрата отклонения случайной величины от ее математического ожидания: D(x) = М [ X – M(x)]2 = å[ Xi – M(x)]2·Pi. Среднее квадратическое отклонение равно корню квадратному из дисперсии: d(х) =Ö D(x)
Основными понятиями математической статистики. являются: ГЕНЕРАЛЬНАЯ СОВОКУПНОСТЬ - большая статистическая совокупность, из которой отбирается часть объектов для обследования (например, студенты института ). ВЫБОРКА – множество (часть) объектов, случайныи образом отобранных из генеральной совокупности. Статистическое распределение - совокупность вариант (значений случайной величины ) и соответствующих им частот. ПОЛИГОН ЧАСТОТ - ломаная линия, отрезки которой соединяют точки с координатами (xiPi). ГИСТОГРАММА совокупность смежных прямоугольников, построенных на одной прямой линии, основания прямоугольников одинаковы и равны DХ, а высоты равны отношению частоты ( или относительной частоты ) к DХ.
Точечными оценками случайной величины. являются:. Выборочная средняя – это среднее арифметическое всех значений, составляющих эту выборку. `ХВ = (1/n) å Хi Дисперсия – это среднее арифметическое квадратов отклонений вариант (значений случайной величины) от их среднего значения: dВ2 = (1/n)å (X i - `XВ )2 Выборочное среднее квадратическое отклонение – это квадратный корень из выборочной дисперсии: d = Ö dВ 2
Интервальными оценками случайных величин являются: Доверительные вероятности, признанные достаточными для уверенного суждения о генеральных параметрах на основании известных выборочных показателей. Обычно в качестве доверительных используют вероятности Р1 = 0,95; Р2 = 0,99; Р3 = 0,999. Доверительный интервал, в котором с определенной (доверительной) вероятностью находится генеральное среднее. Например, для доверительный интервал задается выражением: хВ - e < m< хВ + e , где положительное число e характеризует точность оценки и оно равно: e = t s /Ön. , где t – критерий Стьюдента, а величина S / Ö n называется средней квадратической ошибкой mx генеральной средней m и находится из выражения:, где S2 = n dВ2 / (n – 1).
В математической статистике применяют две противоположные гипотезы: Н0 –нулевую гипотезу, которая предполагает, что полученные в опыте различия между исследуемыми параметрами случайны и ими можно пренебречь; Н1 – гипотезу, которая противоположна Н0 –нулевой гипотезе, и предполагает, что полученные в опыте различия между исследуемыми параметрами не случайны и ими нельзя пренебречь. Принять или опровергнуть гипотезу можно только после ее проверки. Для этого применяют критерии. При этом одни критерии (фактические) tф вычисляют по исходным данным и сравнивают их с табличными tкр. Основной принцип проверки статистических гипотез сводится к следующему: если фактически установленная величина tф ³ tкр, то нулевую гипотезу отвергают. Если tф < tкр, то принимают нулевую гипотезу.
Для проверки статистических
гипотез применяют параметричес
Корреляционной называется зависимость между переменными, когда определенному значению одной величины соответствует несколько значений другой величины.
Чтобы установить наличие связи между величинами строят корреляционное поле.
У
`
Информация –мера неопределенности, которая устраняется после получения сообщения. Информация – это совокупность сведений, сообщений о явлениях, процессах, предметах, привносящих новые знания об этих явлениях. Мерой неопределенности событий является энтропия. Энтропия является мерой неопределенности событий. Если система может находиться только в одном состоянии, то энтропия имеет минимальное значение равное нулю. Энтропия системы принимает максимальное значение в случае, если все состояния системы равновероятны. Информация, содержащаяся в сообщении, численно равна энтропии, исчезающей после получения сообщения. Количество информации, соответствующее наступлению какого-либо одного из N равновероятных событий, рассчитывается по формуле Хартли: Н = log N = - logР. ( Так как Р = 1/ N = N -1). Если события неравновозможные, то информационная энтропия рассчитывается по формуле К.Шеннона:
Н = - S PilogPi , где Pi – вероятность i -того события.
Пропускной способностью С канала связи называется максимальное количество информации, которое можно передать по каналу связи в единицу времени: С = H / t [бит/с ]. Где Н – количество информации, а t – время, за которое оно было передано.
Абсолютный порог - это минимальное значение силы стимула вызывающее ощущения. Болевой или максимальный порог - максимальное значение силы стимула, вызывающее ощущение (выше этого уровня появляется чувство боли). Дифференциальный порог - минимальное отличие между силой, действующих стимулов, при котором они воспринимаются как различные. Дифференциальный временной порог – наименьшее время между действием двух раздражителей, при котором последние воспринимаются как раздельные. Дифференциальный пространственный порог - наименьшее расстояние между раздражителями, при котором они воспринимаются как раздельные.
Закон Вебера: отношение между приростом раздражителя, едва заметно отличающимся от его исходного значения и исходным значением раздражителя есть величина постоянная : D S / S = const
Закон Вебера - Фехнера E = k ln I / I o, Закон Стивенса: I = k ( S - So )n , в котором, I - интенсивность ощущения, Sо - пороговая и S - действующая сила раздражения, k - константа.
Показатель степени n
в этой функции для различных
сенсорных систем и различных
видов раздражений может
С точки зрения термодинамики, системой называют любую часть пространства окруженного оболочкой. Системы могут быть изолированные -не обмениваются с окружающей средой ни энергией, ни веществом ; замкнутые системы - обмениваются только энергией и открытые - обмениваются и энергией и веществом.Первый закон термодинамики: DU = DQ ± W , где DQ - тепло поглощенное системой, DU - изменение внутренней энергии системы, W – работа, взятая со знаком “минус”, если она совершена системой над ее окружением, и со знаком “плюс”, если работа совершена над системой. Внутренняя энергия - это сумма кинетической и потенциальной энергии всех атомов и молекул термодинамической системы.
Термодинамическая система характеризуется экстенсивными и интенсивныит термодинамическими параметрами. ЭКСТЕНСИВНЫМИ называют параметры, которые зависят от общего количества вещества в системе (например, масса m, объем V ). ИНТЕНСИВНЫМИ называют параиетры, не зависящие от общего количества вещества в системе (температура, давление, молярная концентрация). ОБРАТИМЫМИ называют циклические процессы, при которых обратный переход системы в первоначальное положение не требует затрат энергии извне. НЕОБРАТИМЫМИ называют циклические процессы, при которых возврат системы в исходное состояние требует затрат энергии извне.
Мерой необратимости процессов является ЭНТРОПИЯ (S) - равная отношению тепла Q , производимого в обратимом изотермическом процессе, к абсолютной температуре T , при которой протекает процесс :
S = Q/T. Кроме энтропии, в термодинамике используется понятие приведенной теплоты, под которой подразумевают величину: Qпр = Q / T
СТАТИСТИЧЕСКОЕ ТОЛКОВАНИЕ ЭНТРОПИИ: S = k ln W, где k - постоянная Больцмана ( 1,38х 10 -²³ Дж/ К), ln - натуральный логарифм ( по основанию e = 2,71...), а W - термодинамическая вероятность, она представляет собой количество способов, комбинаций элементов системы, с помощью которых реализуется данное состояние.
Общее изменение энтропии в открытой системе, обменивающейся с внешней средой энергией и веществом, может быть равно нулю, больше нуля, или меньше нуля. Состояние системы, при котором ее параметры со временем не изменяются, но происходит обмен веществом и энергией с окружающей средой называется стационарным. Критерием стационарности системы является равенство нулю общего изменения энтропии и свободной энергии внутри системы. Теорема Пригожина: в стационарном состоянии скорость возрастания энтропии, обусловленная протеканием необратимых процессов, имеет положительное и минимальное из всех возможных значение. Для живого организма характерно постоянство параметров состояния во времени, которое называется гомеостазом. Гомеостаз – это стационарное состояние организма