- •Ю.Я. Кацман Теория вероятностей, математическая статистика и случайные процессы
- •Теория вероятностей, математическая статистика и случайные процессы
- •Издано в авторской редакции
- •Отпечатано в Издательстве тпу в полном соответствии с качеством предоставленного оригинал-макета
- •Введение
- •Раздел 1. Теория вероятностей Глава 1. Основные понятия теории вероятностей
- •1.1. Элементы комбинаторики
- •1.2. Пространство элементарных событий. Случайные события
- •1.3. Статистическое определение вероятности
- •1.4 Классическая вероятностная схема
- •1.5. Аксиоматическое построение теории вероятностей
- •1.6. Геометрическое определение вероятности
- •Глава 2. Основные теоремы теории вероятностей
- •2.1. Теорема сложения вероятностей несовместных событий
- •2.2. Теорема сложения вероятностей совместных событий
- •2.3. Независимость событий
- •2.4. Теорема умножения вероятностей
- •2.5. Формула полной вероятности
- •2.6. Теорема гипотез (Формула Байеса)
- •Глава 3. Повторение испытаний
- •3.1. Схема Бернулли
- •3.1.1. Обобщение схемы Бернулли
- •3.2. Теорема Пуассона (Закон редких событий)
- •3.3. Локальная теорема Муавра-Лапласа
- •3.4. Интегральная теорема Муавра-Лапласа
- •Глава 4. Случайные величины
- •4.1. Классификация случайных величин. Закон распределения дискретной случайной величины
- •4.1.1. Интегральная функция распределения
- •4.2. Непрерывная случайная величина, плотность распределения
- •4.2.1. Основные свойства плотности распределения
- •4.3. Характеристики положения случайной величины
- •4.4. Числовые характеристики одномерной случайной величины
- •4.4.1. Свойства математического ожидания
- •4.5. Моменты случайной величины
- •4.5.1. Свойства дисперсии
- •4.5.2. Асимметрия и эксцесс
- •Глава 5. Многомерные случайные величины
- •5.1. Многомерная случайная величина и закон ее распределения
- •5.1.1. Свойства двумерной функции распределения
- •5.2. Плотность вероятности двумерной случайной величины
- •5.2.1. Условная плотность распределения
- •5.3. Числовые характеристики системы случайных величин
- •5.3.1. Свойства коэффициента корреляции
- •Глава 6. Основные законы распределения
- •6.1. Нормальный (гауссов) закон распределения
- •6.1.1. Вероятность попадания на интервал
- •6.1.2. Свойства нормальной функции распределения
- •6.2. Распределение ("хи–квадрат")
- •6.3. Показательный (экспоненциальный) закон распределения
- •6.3.1 Числовые характеристики показательного распределения
- •6.3.2. Функция надежности
- •6.4. Распределение Парето
- •Глава 7. Закон больших чисел
- •7.1. Неравенство Чебышева
- •7.2. Теорема Чебышева
- •7.3. Обобщенная теорема Чебышева
- •7.4. Теорема Маркова
- •7.5. Теорема Бернулли
- •7.6. Центральная предельная теорема
- •Раздел 2. Математическая статистика Глава 8. Основные понятия и задачи математической статистики
- •8.1. Выборочные распределения
- •8.1.1. Группирование данных, гистограмма, полигон
- •8.2. Статистическая (эмпирическая) функция распределения
- •8.3. Выборочные значения и оценка параметров.
- •8.3.1. Требования "хороших оценок"
- •Несмещённость.
- •Эффективность.
- •Состоятельность.
- •Глава 9. Интервальное оценивание
- •9.1. Интервальная оценка математического ожидания при известной дисперсии
- •9.2 Интервальная оценка математического ожидания при неизвестной дисперсии
- •9.3. Интервальная оценка выборочной дисперсии
- •Глава 10. Статистические критерии
- •10.1. Проверка гипотез
- •10.2. Ошибки проверки гипотез
- •Раздел 3. Случайные процессы Глава 11. Основные понятия и модели случайных процессов
- •11.1. Классификация случайных процессов
- •11.2. Основные характеристики случайного процесса
- •Свойства математического ожидания сп
- •Свойства дисперсии сп
- •Свойства корреляционной (автоковариационной) функции сп
- •Свойства нормированной корреляционной функции сп
- •11.2. Стационарные случайные процессы
- •11.3. Марковские случайные процессы
- •11.4. Потоки событий (Пуассоновские потоки)
- •11.5. Непрерывный марковский процесс. Уравнения Колмогорова
- •Заключение
- •Список литературы Основная
- •Дополнительная
5.3.1. Свойства коэффициента корреляции
Коэффициент корреляции принимает значения на отрезке
:
(5.31)
Если случайные величины независимы, то их коэффициент корреляции равен нулю. Справедливость этого свойства очевидна, если учесть выражение (5.28), так как в этом случае
Равенство нулю коэффициента корреляции – необходимое, но не достаточное условие независимости случайных величин.
Из независимости случайных величин вытекает их некоррелированность. Обратное не всегда верно. Убедимся в этом на примере.
ПРИМЕР
4: Имеются две
СВ:
.
Докажите, что эти величины некоррелированные.
РЕШЕНИЕ: Вычислим ковариацию:
На
практике для
мерного
случайного вектора
достаточно сложно найти закон распределения
(интегральную функцию, плотность
распределения и т.п.). Поэтому обычно
указывают
математических ожиданий
дисперсий
и
корреляционных моментов
,
характеризующих парные корреляции всех
величин, составляющих вектор
.
Все корреляционные моменты, дополненные
дисперсиями
,
располагают в виде матрицы:
(5.32)
которую называют корреляционной матрицей системы случайных величин.
Замечание Корреляционная матрица симметрична относительно главной диагонали (см. формулы (5.26) и (5.27)).
ПРИМЕР 5: Двумерная СВ задана дифференциальной функцией:
Докажите, что и зависимые и не коррелированные СВ.
РЕШЕНИЕ: Зная двумерную плотность распределения, вычислим одномерные плотности:
Так
как
,
то
и
зависимые величины. Найдем ковариацию:
.
Так как
функция симметричная относительно
,
то
,
аналогично
.
Учитывая эти результаты, получим:
Действительно, каждый интеграл от нечетной функции в симметричных пределах равен нулю. Таким образом СВ и зависимые и не коррелируемые.
Глава 6. Основные законы распределения
6.1. Нормальный (гауссов) закон распределения
Нормальный закон распределения (закон Гаусса) играет исключительно важную роль в теории вероятностей. Это наиболее часто встречающийся на практике закон распределения СВ. Главная особенность, выделяющая закон Гаусса, состоит в том, что он является предельным законом, к которому приближаются другие законы при весьма часто встречающихся типичных условиях.
Доказано, что сумма достаточно большого числа независимых (или слабо зависимых) случайных величин, подчиненных каким угодно законам распределения (при соблюдении некоторых весьма не жестких ограничениях) приближенно подчиняется нормальному закону. И это свойство выполняется тем точнее, чем большее количество СВ суммируется. По нормальному закону распределены ошибки измерений, белый шум в электронике и т.п.
Непрерывная
случайная величина
имеет нормальный
закон распределения (закон
Гаусса) с
параметрами
и
,
если ее плотность вероятности определена
на всей числовой оси
и имеет вид:
. (6.1)
Кривую
нормального закона распределения
называют нормальной и
ли
гауссовой кривой (см. рис. 6.1). Гауссова
кривая имеет симметричный холмообразный
вид с максимумом в точке
,
причем сам максимум равен
.
Выясним смысл параметров
и
,
входящих в выражение (6.1).
Рис.6.1. Нормальное распределение
Для этого вычислим сначала математическое ожидание СВ , распределенной по нормальному закону:
(6.2)
Произведем
замену переменных, определив
,
тогда
,
а
.
Подставив в (6.2) получим:
(6.3)
В
выражении (6.3) первый интеграл равен
нулю, как интеграл от нечетной функции
в симметричных относительно начала
координат пределах; второй интеграл –
это интеграл Пуассона – Эйлера, который
равен
.
Тогда окончательно получим:
(6.4)
Итак, параметр в плотности вероятности нормального распределения равен математическому ожиданию СВ .
Вычислим теперь дисперсию СВ :
Произведя ту же замену переменных, что и при вычислении математического ожидания, получим:
(6.5)
Поясним
немного полученный результат.
Действительно, первое слагаемое в
выражении (6.5) равно нулю, так как
стремится к нулю при
быстрее, чем возрастает любая степень
.
А второе слагаемое это интеграл Пуассона
– Эйлера.
Следовательно, параметр в формуле (6.1) есть не что иное, как среднее квадратическое отклонение СВ .
Выведем общую формулу для центрального момента любого порядка СВ , распределенной по нормальному закону. По определению:
Здесь, как и в предыдущих интегралах, применили подстановку, а полученный интеграл будем брать по частям:
(6.6)
При
интегрировании по частям отметим, что
первое слагаемое равно нулю, так как
стремится к нулю быстрее, чем возрастает
любая степень
.
Теперь запишем центральный момент
порядка:
(6.7)
Сравнивая правые части выражений (6.6) и (6.7) окончательно получим:
(6.8)
Рекуррентное
соотношение (6.8) справедливо для
центральных моментов любого порядка.
Известно, что
,
а
.
Тогда все центральные моменты нечетных
порядков для нормального распределения
равны нулю.
Нормальное распределение симметрично:
(6.9)
Коэффициент эксцесса нормального распределения, согласно (6.8) равен:
(6.10)
Нормальный
закон распределения СВ с параметрами
,
обозначается
и называется стандартным
или нормированным,
а соответствующая нормальная кривая –
стандартной
или нормированной.
