1.
Основы теории вероятностей
Основы теории вероятностей
Предметом теории вероятностей являются массовые явления – длинные серии экспериментов при определенном комплексе условий. Если при воспроизведении данного комплекса условий результаты экспериментов также воспроизводятся, процесс называют детерминированным. В противном случае процесс являетсяслучайным. Вопрос о том, можно ли путем учета и воспроизведения всех условий превратить случайный процесс в детерминированный тесно связан с квантовомеханическим соотношением неопределенности и до сих пор является открытым.
Понятие вероятности. Аксиома измерений
Каждому результату эксперимента можно поставить в соответствие некоторую величину илисобытие. Так, например, при измерении напряжения некоторого источника величиной является измеренное напряжение, а событием – попадание этого напряжения в некоторый заранее заданный интервал.
Если в серии из Nэкспериментов, выполняющихся при определенном комплексе условий, событиеAпроизошлоnраз, то=n/N–частота появлениясобытияAвNэкспериментах. Ясно, что тот факт, что приNэкспериментахnраз произойдет событиеA, также является случайным событием, а частота появления– случайной величиной. Однако в любой достаточно длинной серии экспериментов частота появления является устойчивой величиной, которая приNстремится к некоторому значению0. Этот факт является статистической закономерностью; именно такие закономерности и являются предметом изучения теории вероятностей и статистической радиофизики.
Введем вероятность случайного события Aкак величину, мало отличающуюся отпри большихN. Утверждение, заключающееся в том, что для каждого случайного событияAсуществует его определенная вероятностьp=P{A} означает, что в любых достаточно длинных сериях экспериментов частоты появления событияAбудут приблизительно одинаковы и близки к величинеp. Само по себе существование величиныpдля широкого класса массовых явления подтверждается практикой и является основой теории вероятностей. Предположение
|
(1.1) |
называется аксиомой измерения. Ясно, что 0P{A}1.
Для двух взаимосвязанных событий можно ввести условную вероятность P{A|B}, то есть вероятность возникновения событияAпри условии, что произошло событиеB. Из частотного определения вероятности следует, что
P{A|B} =P{AB}/P{B},P{B|A} =P{AB}/P{A} |
(1.2) |
Отсюда
. |
(1.3) |
Безусловные вероятности P{A} часто называютаприорными, а условныеP{A|B} –апостериорными. Если событияAиBнезависимы, то в соответствии с (1.2)P{A|B} =P{A},P{B|A} =P{B}, то есть
P{AB} =P{A}P{B}.
Если есть Kвзаимно независимых событийA1…AK, причем вероятностьP{A1+A2+ … +AK} = 1, то есть имеется полная группа изKгипотез, то
. |
(1.4) |
Мы получили формулу полной вероятности. На ее основе с использованием выражения (1.3) можно записатьформулу Байеса:
. |
(1.5) |
Случайные величины. Распределение вероятностей
Рассмотрим непрерывную или дискретную случайную величину как результат некоторого эксперимента и поставим ей в соответствие множество случайных событий, заключающихся в том, что=xi (для дискретной величины) илиx<<x+x(для непрерывной величины). Закон по которому каждому значениюxi(или интервалуx) ставится в соответствие вероятность того, чтопримет это значение (попадет в этот интервал), называютзаконом распределениявероятности случайной величины. Аналитическим выражением закона распределения являетсяфункция распределения. Введеминтегральную функцию распределениякакF(x) =P{x} и сформулируем ряд ее очевидных свойств:F(–) = 0,F() = 1,F(x1)F(x2) еслиx1x2.
Если интегральная функция распределения случайной величины непрерывна и дифференцируема, то случайную величину называют непрерывной, а производную интегральной функции распределения
|
(1.6) |
называют функцией плотности вероятности. Ясно, что
.
Можно ввести функцию плотности вероятности и для дискретной случайной величины. Если pi=P{=xi}, то
.
Определим среднее значение произвольной функции случайной величины f() как
для непрерывной величины и
для дискретной. Для любой случайной величины можно ввести моментыn-го порядка, которые определяются как среднее отn. Для непрерывной и дискретной случайных величин моментn-го порядка равен соответственно
. |
(1.7) |
Среднее или первый момент случайной величины называется математическим ожиданием:.
В статистической радиофизике используют также центральные моменты:
.
Центральный момент второго порядка называется дисперсией:
.
. |
(1.8) |
Рассмотрим ряд примеров распределений случайных величин. Пусть эксперимент может иметь только два исхода – либо происходит событие Aс вероятностьюP{A} =p, либо событиеBс вероятностьюP{B}=q= 1 –p. Тогда вероятность того, что приNиспытанияхnраз произойдет событиеAопределяетсябиноминальным законом распределения:
. |
(1.9) |
Найдем моменты этого распределения:
Теперь можно найти первый и второй моменты:
,
,
а также дисперсию, пользуясь выражением (1.8):
.
Вид биноминального закона распределения (1.9) при p= 0,1 и различных значенияхNпоказан на рис. 1.1.
Будем увеличивать число испытаний Nтак, чтобы произведениеNp=m1= <n> оставалось постоянным (вероятностьpпри этом будет уменьшаться). Сделаем ряд преобразований выражения (1.9):
Поскольку известно, что
,
Рис. 1.1. Биноминальный
закон распределения
– |
(1.10) |
распределение Пуассона(рис. 1.2). Вычисление моментов этого распределения дает:
Рис. 1.2.
Распределение Пуассона
Формулы для первых двух моментов и дисперсии распределения Пуассона имеют вид:
,
,
.
Рис. 1.3. Распределение
Муавра-Лапласа
– |
(1.11) |
распределение Муавра-Лапласа(рис. 1.3), где,. При больших значенияхnможно пренебречь дискретностью и отnперейти к непрерывной величинес функцией плотности вероятности вида
. |
(1.12) |
Эта функция описывает нормальное распределение(распределение Гаусса), для которого,. Вид распределения Гаусса показан на рис. 1.4.
З
Рис. 1.4. Распределение
Гаусса