Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Теория вероятности

.doc
Скачиваний:
11
Добавлен:
23.02.2015
Размер:
57.86 Кб
Скачать

Основными понятиями Теория вероятности "ТВ" являются: событие - результат испытаний испытание - комплекс условий, при которых появляется данное случайное событие. Случайным называют событие, наступление которого нельзя достоверно предвидеть. Случайные события называются массовыми, если они в одинаковых условиях происходят одновременно в большом числе случаев, или многократно повторяются. Основными характеристиками случайных событий являются относительная частота F(A) его появления, т.е. отношение числа m случаев, благоприятствующих данному событию к общему числу n возможных случаев: F(A) = m/n и вероятность события P(A) = m/n. Вероятность события А равна отношению числа m случаев благоприятствующих появлению события А, к общему числу возможных событий n - это классическое определение вероятности. Статистическое определение вероятности: Вероятность события А равна: Р(А) = lim m/n. вероятность случайного события есть предел, к которому стремится относительная частота его появления при неограниченном увеличении числа наблюдений. События называют достоверными, если они происходят всегда, или вероятность которых равна единице. События называют невозможными, если они не происходят никогда, или вероятность которых равна нулю. События называют несовместимыми, если при каждом испытании появление одного из возможных событий исключает появление остальных. События называют совместимыми, если они могут происходить одновременно. События называют независимыми, если вероятность появления одного из них не зависит от наступления других событий. Событие В называется зависимым от события А, если его вероятность Р(В) меняется в зависимости от того, произошло событие А или нет. В этом случае вводится понятие условной вероятности, под которой понимается вероятность события В при условии, что событие А произошло. Обозначают это так: Р( В / А). Систему событий А1 А2 ..., Аn называют полной, если при каждом испытании обязательно наступает одно (и только одно ) из этих событий. Сумма вероятностей событий, составляющих полную систему, равна 1: Р(А1 ) + Р(А2 ) + ... + Р(Аn ) = 1. Два единственно возможных несовместимых события называют противоположными, если при каждом испытании обязательно происходит одно из них, или Р(А) + Р(А) = 1. Событие называют сложным, если оно состоит из одновременного наступления нескольких событий.

Теорема сложения: Вероятность появления при испытании одного ( любого ) из нескольких несовместимых событий Р ( А или В ) равна сумме их вероятностей: P( A или B) = P(A) + P(B)

Теорема умножения для независимых событий: Вероятность Р(А и В) сложного события, состоящего из совпадения двух независимых простых событий А и В, равна произведению вероятностей Р(А) и Р(В) этих событий: Р(А и В) = Р(А) Р(В). Теорема умножения для зависимых событий: Вероятность Р(А и В) сложного события, состоящего из совпадения двух зависимых простых событий А и В (причем В зависит от А), равна произведению вероятности первого из них Р(А) на условную вероятность второго Р(В / А) в предположении, что первое произошло: Р(А и В) = Р(А) Р( В / А).

Теорема о полной вероятности: вероятность события А, которое может произойти с одной из образующих полную группу гипотез (Н) равна сумме произведений вероятностей гипотез на вероятность события при каждой гипотезе: Р(А) = P(Hi) P(A/Hi).

Теорема Байеса: вероятность гипотезы в результате которой могло произойти данное событие равна отношению произведения вероятности гипотезы на вероятность события при данной гипотезе к вероятности события: P(Hi/A) = [P(Hi) P(A/Hi)]/ P(A).

Случайные величины и законы их распределения. Случайной называют такую величину, которая может принимать различные численные значения в зависимости от тех или случайных обстоятельств. Дискретной называют случайную величину, которая принимает счетное множество числовых значений. Непрерывной называют величину, принимающую любые значения в определенном интервале. Числовыми характеристиками дискретных случайных величин являются: МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ М(х) (среднее значение) случайной величины – это сумма произведений всех возможных ее значений (Хi) на вероятности этих значений Pi:

M(х) = x1P1 + x2P2 + x3P3 + … + x n Pn = xiPi ДИСПЕРСИЯ случайной величины D(x) - это

математическое ожидание квадрата отклонения случайной величины от ее математического ожидания: D(x) = М [ XM(x)]2 = [ XiM(x)]2Pi. Среднее квадратическое отклонение равно корню квадратному из дисперсии: (х) = D(x)

Основными понятиями математической статистики. являются: ГЕНЕРАЛЬНАЯ СОВОКУПНОСТЬ - большая статистическая совокупность, из которой отбирается часть объектов для обследования (например, студенты института ). ВЫБОРКА – множество (часть) объектов, случайныи образом отобранных из генеральной совокупности. Статистическое распределение - совокупность вариант (значений случайной величины ) и соответствующих им частот. ПОЛИГОН ЧАСТОТ - ломаная линия, отрезки которой соединяют точки с координатами (xiPi). ГИСТОГРАММА совокупность смежных прямоугольников, построенных на одной прямой линии, основания прямоугольников одинаковы и равны Х, а высоты равны отношению частоты ( или относительной частоты ) к Х.

Точечными оценками случайной величины. являются:. Выборочная средняя – это среднее арифметическое всех значений, составляющих эту выборку. ХВ = (1/n) Хi Дисперсия – это среднее арифметическое квадратов отклонений вариант (значений случайной величины) от их среднего значения: В2 = (1/n) (X i - XВ )2 Выборочное среднее квадратическое отклонение – это квадратный корень из выборочной дисперсии: = В 2

Интервальными оценками случайных величин являются: Доверительные вероятности, признанные достаточными для уверенного суждения о генеральных параметрах на основании известных выборочных показателей. Обычно в качестве доверительных используют вероятности Р1 = 0,95 Р2 = 0,99 Р3 = 0,999. Доверительный интервал, в котором с определенной (доверительной) вероятностью находится генеральное среднее. Например, для доверительный интервал задается выражением: хВ -  хВ + , где положительное число характеризует точность оценки и оно равно: = t s /n. , где t – критерий Стьюдента, а величина S /  n называется средней квадратической ошибкой mx генеральной средней и находится из выражения:, где S2 = n В2 / (n – 1).

В математической статистике применяют две противоположные гипотезы: Н0 –нулевую гипотезу, которая предполагает, что полученные в опыте различия между исследуемыми параметрами случайны и ими можно пренебречь Н1 – гипотезу, которая противоположна Н0 –нулевой гипотезе, и предполагает, что полученные в опыте различия между исследуемыми параметрами не случайны и ими нельзя пренебречь. Принять или опровергнуть гипотезу можно только после ее проверки. Для этого применяют критерии. При этом одни критерии (фактические) tф вычисляют по исходным данным и сравнивают их с табличными tкр. Основной принцип проверки статистических гипотез сводится к следующему: если фактически установленная величина tф tкр, то нулевую гипотезу отвергают. Если tф tкр, то принимают нулевую гипотезу.

Для проверки статистических гипотез применяют параметрические критерии, когда сравниваемые выборки подчиняются нормальному закону распределения и непараметрические критерии – в том случае, если сравниваемые выборки не подчиняются нормальному закону. К параметрическим критериям относятся: критерий Стьюдента tф = ХВ1 - ХВ2 / mB12 + mB22 , где ХВ1 - среднее значение первой выборки, ХВ2 - среднее значение второй выборки, и F - критерий Фишера (F = В12 / В22, где В12это большее из двух значений выборочных дисперсий). В качестве непараметрических критериев может быть использован критерий знаков

Корреляционной называется зависимость между переменными, когда определенному значению одной величины соответствует несколько значений другой величины.

Чтобы установить наличие связи между величинами строят корреляционное поле.

У

….

……

…..

…..

Чтобы установить характер связи между величинами,

находят величину коэффициента корреляции по формуле:

r = (Xi - X)(Yi - Y ) / (Xi - X)2 (Yi -Y)2

х При этом, если r 0, мы имеем положительную связь. Если r 0, мы имеем отрицательную связь. При линейной зависимости, если r = 1, то связь функциональная. 0,7 r 1 – связь сильная. 0,3  r 0,7 – связь средняя. 0  r  0,3 – связь слабая. Если r = 0, то связи нет.

Информация –мера неопределенности, которая устраняется после получения сообщения. Информация – это совокупность сведений, сообщений о явлениях, процессах, предметах, привносящих новые знания об этих явлениях. Мерой неопределенности событий является энтропия. Энтропия является мерой неопределенности событий. Если система может находиться только в одном состоянии, то энтропия имеет минимальное значение равное нулю. Энтропия системы принимает максимальное значение в случае, если все состояния системы равновероятны. Информация, содержащаяся в сообщении, численно равна энтропии, исчезающей после получения сообщения. Количество информации, соответствующее наступлению какого-либо одного из N равновероятных событий, рассчитывается по формуле Хартли: Н = log N = - logР. ( Так как Р = 1/ N = N -1). Если события неравновозможные, то информационная энтропия рассчитывается по формуле К.Шеннона:

Н = - PilogPi , где Pi – вероятность i -того события.

Пропускной способностью С канала связи называется максимальное количество информации, которое можно передать по каналу связи в единицу времени: С = H / t [бит/с ]. Где Н – количество информации, а t – время, за которое оно было передано.

Абсолютный порог - это минимальное значение силы стимула вызывающее ощущения. Болевой или максимальный порог - максимальное значение силы стимула, вызывающее ощущение (выше этого уровня появляется чувство боли). Дифференциальный порог - минимальное отличие между силой, действующих стимулов, при котором они воспринимаются как различные. Дифференциальный временной порог – наименьшее время между действием двух раздражителей, при котором последние воспринимаются как раздельные. Дифференциальный пространственный порог - наименьшее расстояние между раздражителями, при котором они воспринимаются как раздельные.

Закон Вебера: отношение между приростом раздражителя, едва заметно отличающимся от его исходного значения и исходным значением раздражителя есть величина постоянная : S / S = const

Закон Вебера - Фехнера E = k ln I / I o, Закон Стивенса: I = k ( S - So )n , в котором, I - интенсивность ощущения, Sо - пороговая и S - действующая сила раздражения, k - константа.

Показатель степени n в этой функции для различных сенсорных систем и различных видов раздражений может отличаться от единицы как в большую, так и в меньшую сторону.