Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

terver

.docx
Скачиваний:
7
Добавлен:
10.06.2015
Размер:
4.39 Mб
Скачать

1.Основные понятие и определения теории вероятности.

Оценкой вероятности события может служить частота его наступления в длительной серии независимых повторений %случайного эксперимента. Согласно определению П. Лапласа, мерой вероятности называется дробь, числитель- число всех благоприятных случаев, а знаменатель — число всех равновозможных. Теория вероятностей — математическая наука, изучающая закономерности массовых случайных явлений (событий). Случайным событием (или событием) называется всякое явление, которое может произойти или не произойти при осуществлении определенной совокупности условий. Теория вероятностей имеет дело с такими событиями, которые имеют массовый характер. Это значит, что данная совокупность условий может быть воспроизведена неограниченное число раз. Каждое такое осуществление данной совокупности условий называют испытанием (или опытом). Если, например, испытание состоит в бросании монеты, то выпадение герба является событием; если испытание — изготовление подшипника данного типа, то соответствие подшипника стандарту — событие; если испытание — бросание игральной кости, т. е. кубика, на гранях которого проставлены цифры (очки) от 1 до 6, to выпадение пятерки — событие. События будем обозначать заглавными буквами латинского алфавита: A, В, С, ... . Пусть при n испытаниях событие A появилось m раз. Отношение m/n называется частотой (относительной частотой) события A и обозначается Р*(А)=m/n Опыт показывает, что при многократном повторении испытаний частота Р*(А) случайного события обладает устойчивостью.Например, пусть при бросании монеты 4040 раз герб выпал 2048 раз. Частота появления герба в данной серии опытов равна Р*(А)=m/n=2048/4040=0,5069. При бросании той же монеты 12000 раз герб выпал 6019 раз. Следовательно, в этом случае частота Р*(А)=6019/12000=0,5016. Наконец, при 24000 бросаний герб появился 12012 раз с частотой Р*(А)=0,5005. Таким образом, мы видим, что при большом числе бросаний монеты частота появления герба обладает устойчивостью, т. е. мало отличается от числа 0,5. Как показывает опыт, это отклонение частоты от числа 0,5 уменьшается с увеличением числа испытаний. Наблюдаемое в этом примере свойство устойчивости частоты является общим свойством массовых случайных событий, а именно, всегда существует такое число, к которому приближается частота появления данного события, мало отличаясь от него при большом числе испытаний. Это число называется вероятностью события. Оно выражает объективную возможность появления события. Чем больше вероятность события, тем более возможным оказывается его появление. Вероятность события A будем обозначать через Р(А). В рассмотренном выше примере вероятность появления герба, очевидно, равна 0,5.  Событие называется достоверным, если оно в данном опыте обязательно должно произойти; наоборот, событие называется невозможным, если оно в данном опыте не может произойти. Пусть, например, из урны, содержащей только черные шары, вынимают шар. Тогда появление черного шара — достоверное событие; появление белого шара — невозможное событие. Если событие достоверно, то оно произойдет при каждом испытании (m=n). Поэтому частота достоверного события всегда равна единице. Наоборот, если событие невозможно, то оно ни при одном испытании не осуществится (m=0).

2. Классическое, статистическое, геометрическое определение вероятностей. Классическое определение вероятности событий: оно основывается на понятии равновозможности появления одного из n исходов при проведении опыта. Если в результате проведения опыта может произойти n исходов, а некоторому событию благоприятствует исходов, то вероятность данного события определяется по формуле: где – вероятность;( ) – записывается событие, () – рассматривается событие ; – число возможных исходов; – число благоприятных исходов. Вероятность определяется ещё до опыта. Статистическое определение вероятности: классическое определение вероятностей при переходе от простейших примеров к сложным становится неприменимым, так как во многих случаях не представляется возможным обосновать равновозможность всех исходов, которые могут произойти в результате проведения опыта. В этом случае вероятность события определяется по статистической схеме. Проводится n независимых опытов, определяется число опытов , при которых появляется событие , и статистическая вероятность определяется по формуле: Геометрическая вероятность: с начала развития теории вероятностей были замечены недостатки как классического, так и статистического определения вероятности события. Это возникало в тех случаях, когда число возможных исходов при проведении опыта было равно бесконечности и число благоприятных исходов равнялось бесконечности. Поэтому было введено такое понятие как геометрическая вероятность. Пусть множество М является возможными исходами. При этом данное множество является подмножеством либо числовой оси R (множество чисел), либо R2 (плоскость), либо R3 (объём) и т.д. Для решения вероятностей задачи вводится понятие меры некоторого события А: (А) ("мю"). Под мерой события А может пониматься длина, площадь и т.д. Наряду с этой мерой вводится мера множества М - (М). Тогда геометрическая вероятность события А определяется по формуле: Для того чтобы все эти понятия объединить в единое, Колмогоров разработал аксиоматическое построение теории вероятности. Основные аксиомы теории вероятностей: 1)каждому случайному событию А из поля событий F поставлено в соответствие неотрицательное число Р(А), называемое вероятностью события А. 2)Вероятность достоверного события равняется 1 (единице), а вероятность невозможного события равняется 0 (нулю). 3)Вероятность события А определяется в промежутке: 0 Р(А) 1. 4)Если события А1, А2, ..., Аn попарно несовместны, то вероятность суммы этих событий равна сумме вероятностей этих событий: Р(А1, А2, ..., Аn) = Р(А1) + Р(А2) +...+ Р(Аn). 5)Если события А1, А2, ..., Аn представляют полную группу попарно несовместных событий, то вероятность суммы этих событий равна 1, то есть: Из этой аксиомы следует: Р(А) + Р(А) = 1 /\ Р(А) = 1 – Р(А)

4.Теорема сложение и умножение вероятностей событий. Произведением двух событий А и В называется событие АВ, состоящее в том, что произойдёт и событие А, и событие В. При рассмотрении вопроса произведения двух событий важным понятием является условная вероятность события."О" Вероятность события В называется условной, если она вычислена при условии, что событие А произошло, обозначается: Р(В/А). "Т" Вероятность произведения двух событий равна произведению безусловной вероятности одного из событий на условную вероятность второго события, то есть вычисленную при условии, что первое событие произошло: Р(АВ) = Р(А)Р(В/А) = Р(В)Р(А/В). Доказательство: Докажем эту теорему по схеме равновозможных исходов. Пусть результат опыта сводится к появлению одного из n равнозначных исходов. Пусть некоторому событию А благоприятствует m исходов, а событию В – k исходов, обоим событиям благоприятствует l исходов. Так как все исходы равновозможны, то событие АВ по классической схеме равно отношению l к n, то есть: (1). Безусловная вероятность события А: (2). Если произошло событие А, то вероятность того, что произойдёт один из l исходов, то есть что произойдёт событие В, будет равняться: (3). Очевидно, что выражение (1) равно произведению выражений (2) и (3), то есть: чтд.Теорему о вероятности произведения двух событий можно распространить на вероятность произведения числа событий: Если события А1, А2, ..., Аn независимы, то вероятность произведения этих событий равна произведению их вероятностей: . Теорема о вероятности суммы событий "О" Суммой двух событий называется событие, заключающееся в том, что произойдёт либо событие А, либо событие В, либо вместе А и В (обозначается: А + В). "Т" Вероятность суммы двух событий равна сумме их вероятностей минус их произведение: (1). Доказательство: Согласно определению суммы двух событий можно записать(2) События, стоящие в правой части данного выражения, являются несовместными, поэтому на основании аксиомы теории вероятностей о сумме несовместных событий можно записать: (3) Определим произведение каждого их двух событий правой части: Если подставить выражение (4) в выражение (3) и привести подобные, то получим: , ,чтд. Если события А и B несовместны, то вероятность суммы этих событий равна сумме их вероятностей: Теорему о вероятности двух событий можно распространить и на вероятность суммы произвольного числа событий: где – число суммируемых событий.

5.Формула полной вероятности и формула Бейеса. Формула полной вероятности. Следствием теоремы произведения и суммы вероятностей событий является так называемая формула полной вероятности. Пусть имеются некоторые гипотезы Н1, Н2, ..., Нn, представляющие полную группу попарно несовместных событий. Пусть при одной из этих гипотез может произойти некоторое событие А, тогда вероятность события А будет определяться формулой: где Р(Н1), Р(Н2), ..., Р(Нn) – вероятности соответствующих гипотез, Р(А/Н1), Р(А/Н2), ..., Р(А/Нn) – условные вероятности события А при соответствующих гипотезах. Доказательство: Так как событие А может произойти при одной из несовместных гипотез, то ему будут благоприятствовать несовместные исходы вида Н1А, Н2А, ..., НnА. Так как каждый из исходов благоприятствует событию А и является несовместным, то на основании аксиомы о вероятности суммы несовместных событий, вероятность события А будет равна: Р(А) = Р(Н1А) + Р(Н2А) +...+ Р(НnА) = Р(Н1)Р(А/Н1) + Р(Н2)Р(А/Н2) +...+ Р(Нn)Р(А/Нn), чтд. Р(А) – вероятность безусловного события, Р(В/А) – вероятность условного события (условием является в том, что событие А произошло). Чтобы определить вероятность события по формуле полной вероятности, необходимо: 1)определить гипотезы, при которых может произойти событие; 2)определить вероятности каждой гипотезы; 3)определить вероятности события при каждой из гипотез. Формула Байеса При применении формулы полной вероятности предполагается, что до опыта известны вероятности каждой из гипотез и известны условные вероятности события при каждой из гипотез. Часто возникает вопрос, как изменятся вероятности гипотез, если в результате опыта событие А произошло. Эта формула (формула Байеса) доказывается на основании вероятности произведения событий: Р(Нi)Р(А/Нi) = Р(А)Р(Нi/А) Из этого выражения следует, чтотак как вероятность события А до опыта равна сумме вероятностей произведения

6.Законы распределения дискретных и непрерывных случайных величин. Случайные величины бывают дискретные и непрерывные. Дискретной называют случайную величину, которая в результате опыта принимает одно из возможных значений с определённой вероятностью. Непрерывной называют случайную величину, которая в результате опыта может принять значение, находящееся в некотором промежутке (интервале, полуинтервале). Условимся обозначать случайные величины большой буквой Х, а некоторые её конкретные значения – малой х. Законы распределения случайных величин "О" Законом распределения случайной величины называется всякая зависимость, устанавливающая связь между значением случайной величины и его вероятностью. Существуют различные формы задания законов распределения случайных величин. Закон распределения дискретной случайной величины может быть задан в виде ряда распределения, представляющего либо таблицу, либо аналитически. Ряд распределения дискретной случайной величины имеет вид:

Х

х1

х2

...

хi

...

хn

Р

Р1

Р2

...

Рi

...

Рn

где х1, х2,..хn – возможные значения случайной величины, которые могут реализоваться в результате опыта; эти значения представляют собой полную группу попарно несовместных событий;Р1,Р2...Рn - вероятности того, что в результате опыта случайная величина примет соответствующее значение. Так как х1, х2, ..., хi, хn представляют собой полную группу попарно несовместных событий, то сумма вероятностей равняется 1 (единице): . В аналитическом виде закон распределения дискретной случайной величины можно записать следующим образом:

, где – число возможных значений, оно может быть как конечным, так и бесконечным. Если случайная величина непрерывная, то задать закон её распределения ряда невозможно, так как число значений бесконечно. Более универсальной формой задания закона распределения случайной величины является функция распределения. Функция распределения случайной величины задаётся выражением: (1) – величина примет значение меньше заданного, х– случайная величина, Х – некое (конкретное) определённое значение.

Свойства функции распределения: 1)она является неубывающей функцией, то есть если х2>х1, то F(x2)>F(x1); 2)функция на "– ∞" равна нулю: F(– ∞) = 0; 3)F(+ ∞) = 0; 4)0 F(x) 1; 5)вероятность того, что случайная величина Х в результате опыта будет заключена в интервале (, ), определяется через функцию распределения по формуле:

Разновидностью закона распределения для непрерывной случайной величины является плотность её распределения. Плотность распределения иногда называют дифференциальным законом распределения случайной величины. Плотность распределения непрерывной случайной величины задаётся выражением:

. То есть плотность распределения является производной от функции распределения. Свойства плотности распределения: 1)так как функция распределения является неубывающей функцией, то: f(x)0; 2)функция распределения выражается через плотность распределения по формуле: 3)вероятность того, что случайная величина попадёт в интервал, определяется выражением: 4)нормирующее свойство: . Закон распределения случайной величины является полной её характеристикой. Однако при решении ряда задач относительно случайной величины достаточно знать некоторые её характеристики.

7.Числовые характеристики случайной величины определяются через закон её распределения. Они определяются через "моменты случайной величины". Эти моменты бывают начальные и центральные. Начальные моменты случайной величины определяют, как случайная величина распределяется относительно начала координат. А центральные моменты случайной величины определяют, как случайная величина распределяется относительно центра объекта. Примем k-тый начальный момент как , а центральный момент через . Для дискретной случайной величины момент обозначается в виде: (1) – это матем ожидание случайной величины в степени k или k-тый случайный момент; для дискретной случайной величины он раскрывается суммой . Важной характеристикой является первый случайный момент – он называется мат. ожиданием случайной величины и определяет центр её группирования. Для дискретной случайной величины матема ожидание определяется: (2) Pi – вероятность того, что случайная величина примет значение хi. Для непрерывной случайной величины начальный момент k-того порядка определяется по формуле: (3) Мат ожидание для непрерывной случайной величины: (4). Любой из моментов случайной величины характеризует те или иные её свойства. Наряду с матем ожиданием случайной величины центр её рассеивания также задаётся модой и медианой. Модой является то значение случайной величины, при котором плотность её распределения максимальна, то есть выполняется условие: f(x0) = max, x0 мода случайной величины. В точке x0 плотность распределения максимальна. Медиана случайной величины определяется исходя из условия:

В общем случае мат ожидание случайной величины и медиана могут быть неравны друг другу. Для определения центральных моментов случайной величины вводится такое понятие как центрированная случайная величина: . Центрированный момент случайной величины k-того порядка задаётся выражением: . Для дискретной случайной величины центрированный момент определяется формулой: . Важной характеристикой случайной величины является второй центрированный момент, который называется дисперсией (Dх) случайной величины. Момент характеризует рассеивание случайной величины относительно матем ожидания. Дисперсия дискретной случайной величины определяется по формуле: . Можно доказать, что дисперсия дискретной случайной величины может быть выражена через второй начальный момент и мат ожидание случайной величины по формуле:. Для непрерывной случайной величины k-тый центральный момент определяется выражением: где f(x) – плотность распределения случайной величины. Так как размерность дисперсии и размерность случайной величины отличаются друг от друга, то наряду с дисперсией в качестве характеристики рассеивания случайной величины вводится такая характеристика как среднее квадратичное отклонение случайной величины (СКО) (сигма): .

8. Законы распределения дискретных случайных величин и их числовые характеристики. Геометрическое распределение: Пусть проводятся некоторые испытания. В каждом испытании событие А может появиться с вероятностью Р. Необходимо определить вероятность того, что при k-том испытании появится событие. Здесь в качестве случайного события рассматривается число k, то есть число испытаний до появления первого события. На основании теоремы о произведении вероятностей независимых событий вероятность того, что случайная величина примет значение k, будет равна: ,k = 1, 2,... – случайная величина может принимать любое из натуральных чисел (1, +∞). Мат ожидание данной случайной величины определяется по формуле: (произведение некоторого числа на геометрическую прогрессию). Дисперсия случайной величины равна второму центральному моменту. Для данной случайной величины она будет определяться по формуле: , где q = 1 – P. Если требуется решить вероятностную задачу относительно этой случайной величины, то следует использовать выражение вида:. То есть вероятность того, что случайная величина, имеющая геометрическое распределение, в результате опыта примет значение более m1 и менее m2, определится по этой формуле. Биномиальное распределение: Это распределение связано с частной теоремой о повторении опыта. В данном распределении под случайной величиной понимается число опытов, в которых появится событие при n испытаниях. Как известно, вероятность того, что при n опытах событие появится ровно k раз, определяется по формуле: Р(Х = k) = С(n, k)Рkqn-k , где n – число опытов, k – число опытов, в которых появилось событие; k = 0, 1, 2, ..., n. Числовые характеристики: Вероятностная задача относительно этой случайной величины определяется по формуле: Распределение Пуассóна: Это распределение связано с таким понятием как "поток событий". Случайным потоком событий называют последовательность однородных событий, следующих одно за другим в какие-то случайные моменты времени. На временной оси этот поток событий можно представить в виде точек:

Среди этих случайных потоков важное место занимает"простейший поток событий", который удовлетворяет ряду событий: 1)условие стационарности: поток событий называется стационарным, если вероятность попадания того или иного числа событий в некоторый промежуток времени τ (тáу) не зависит от того, где на временной оси берётся этот промежуток, а зависит только от величины этого промежутка: , 2)отсутствие последствия: события, образующие поток, появляются в последовательные моменты времени независимо от того, в какие моменты времени появились предыдущие события; 3)условие ординарности: события могут появляться только по одиночке в некоторый фиксированный момент времени; то есть в один и тот же момент времени не могут появиться второе, третье, ..., n-ное события одновременно. Для простейшего потока событий вероятность того, что за время τ появится ровно k событий, определяется законом Пуассона, который задаётся формулой: где а = λτ , λ – интенсивность потока (среднее число событий за единицу времени). Числовые характеристики: , То есть матем ожидание и дисперсия данной случайной величины равны друг другу. Из данных выражений следует, что случайная величина может принимать значения от 0 до ∞, то есть k = 0, 1, 2, ... (∞). Вероятностная задача относительно этой случайной величины определяется по формуле: . В некоторых случаях биномиальное распределение может быть заменено распределением Пуассона. Если число независимых опытов достаточно велико (n>10) и вероятность появления события в отдельном опыте не существенна (Р<0,1), то биномиальное распределение может быть приблизительно заменено распределением Пуассона, то есть справедливо выражение: , где

9.Распределение непрерывных случайных величин. Равномерное распределение: Непрерывная случ величина имеет равномерное распределение на отрезке [a, b], если её плотность распределения задаётся выражением: График этой плотности распределения имеет вид:

Функция распределения:,

График функции распределения: , Числовые характеристики:. Вероятностная задача относительно этой непрерывной случ величины решается по формуле: , , a, b

  1. Показательное распределение: характеризует закон распределения интервала времени между двумя событиями в простейшем потоке. Действительно, вероятность того, что за время τ не наступит очередное событие, согласно распределению Пуассона, можно задать выражением вида: , 0! = 1.Соответственно, вероятность того, что за время τ наступит очередное событие, будет равна: Р(Т > τ) = 1 – еτ (1)

Это выражение хар-ет ф-цию распределения случ величины. Если через Х обозначить случ величину "время наступления очередного события", то выражение (1) можно записать в виде: Р(Х > х) = 1 – ех (2). С учётом этого, ф-цию распределения случ величины, имеющей показательное распределение, можно записать след образом: . Числовые хар-тики:

Вероятностная задача определяется: . Показательное распределение играет исключительную роль в теории надёжности. Через показательное распределение задаётся так называемая ф-ция надёжности, имеющая вид:,где – интенсивность отказов (среднее число отказов в единицу времени),а ф-ция надёжности опр-ет вероятность того, что в течение времени τ то или иное устройство будет работать безотказно. 2)Нормальное распределение: является основным законом природы, где процесс описывается с помощью случ величины. Плотность распределения случ величины, имеющей нормальное распределение, задаётся выражением: где a и b – параметры распределения.

Мат ожидание: , Среднее квадратичное случ величины по нормальному закону х равна параметру b данного распределения. При решении вероятностных задач относительно случ величины, распределённой по нормальному закону, вводится такое понятие как нормальное стандартное распределение. В этом распределении мат ожидание равно 0 (mх = 0), дисперсия равна 0 (Dх = 0), следовательно, х= 0. Плотность распределения: .Для ф-ции стандартного нормального распределения составляются таблицы. Чтобы через стандартное нормальное распределение можно было решить вероятностную задачу относительно случ величины общего вида, то есть когда mх≠0 и Dх≠0, её центрируют (Х-mx) и нормируют (÷) таким образом: . В этом случае случ величина Т имеет стандартное нормальное распределение. И тогда связь между функциями распределения случ величины общего вида и функцией распределения стандартной величины задаётся выражением: . Вероятность того, что случайная величина Х больше  и меньше , равна: Р(<Х<) = F() – F() = -

Х

Y

y1

y2

yi

ym

x1

Р11

Р12

...

Р1i

...

Р1m

x2

Р21

Р22

...

Р2i

...

Р2m

...

...

...

...

...

...

xi

Рi1

Рi2

...

Рij

...

Рim

...

...

...

...

...

...

xn

Рn1

Рn2

...

Рnj

...

Рnm

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]