- •Ю.Я. Кацман Теория вероятностей, математическая статистика и случайные процессы
- •Теория вероятностей, математическая статистика и случайные процессы
- •Издано в авторской редакции
- •Отпечатано в Издательстве тпу в полном соответствии с качеством предоставленного оригинал-макета
- •Введение
- •Раздел 1. Теория вероятностей Глава 1. Основные понятия теории вероятностей
- •1.1. Элементы комбинаторики
- •1.2. Пространство элементарных событий. Случайные события
- •1.3. Статистическое определение вероятности
- •1.4 Классическая вероятностная схема
- •1.5. Аксиоматическое построение теории вероятностей
- •1.6. Геометрическое определение вероятности
- •Глава 2. Основные теоремы теории вероятностей
- •2.1. Теорема сложения вероятностей несовместных событий
- •2.2. Теорема сложения вероятностей совместных событий
- •2.3. Независимость событий
- •2.4. Теорема умножения вероятностей
- •2.5. Формула полной вероятности
- •2.6. Теорема гипотез (Формула Байеса)
- •Глава 3. Повторение испытаний
- •3.1. Схема Бернулли
- •3.1.1. Обобщение схемы Бернулли
- •3.2. Теорема Пуассона (Закон редких событий)
- •3.3. Локальная теорема Муавра-Лапласа
- •3.4. Интегральная теорема Муавра-Лапласа
- •Глава 4. Случайные величины
- •4.1. Классификация случайных величин. Закон распределения дискретной случайной величины
- •4.1.1. Интегральная функция распределения
- •4.2. Непрерывная случайная величина, плотность распределения
- •4.2.1. Основные свойства плотности распределения
- •4.3. Характеристики положения случайной величины
- •4.4. Числовые характеристики одномерной случайной величины
- •4.4.1. Свойства математического ожидания
- •4.5. Моменты случайной величины
- •4.5.1. Свойства дисперсии
- •4.5.2. Асимметрия и эксцесс
- •Глава 5. Многомерные случайные величины
- •5.1. Многомерная случайная величина и закон ее распределения
- •5.1.1. Свойства двумерной функции распределения
- •5.2. Плотность вероятности двумерной случайной величины
- •5.2.1. Условная плотность распределения
- •5.3. Числовые характеристики системы случайных величин
- •5.3.1. Свойства коэффициента корреляции
- •Глава 6. Основные законы распределения
- •6.1. Нормальный (гауссов) закон распределения
- •6.1.1. Вероятность попадания на интервал
- •6.1.2. Свойства нормальной функции распределения
- •6.2. Распределение ("хи–квадрат")
- •6.3. Показательный (экспоненциальный) закон распределения
- •6.3.1 Числовые характеристики показательного распределения
- •6.3.2. Функция надежности
- •6.4. Распределение Парето
- •Глава 7. Закон больших чисел
- •7.1. Неравенство Чебышева
- •7.2. Теорема Чебышева
- •7.3. Обобщенная теорема Чебышева
- •7.4. Теорема Маркова
- •7.5. Теорема Бернулли
- •7.6. Центральная предельная теорема
- •Раздел 2. Математическая статистика Глава 8. Основные понятия и задачи математической статистики
- •8.1. Выборочные распределения
- •8.1.1. Группирование данных, гистограмма, полигон
- •8.2. Статистическая (эмпирическая) функция распределения
- •8.3. Выборочные значения и оценка параметров.
- •8.3.1. Требования "хороших оценок"
- •Несмещённость.
- •Эффективность.
- •Состоятельность.
- •Глава 9. Интервальное оценивание
- •9.1. Интервальная оценка математического ожидания при известной дисперсии
- •9.2 Интервальная оценка математического ожидания при неизвестной дисперсии
- •9.3. Интервальная оценка выборочной дисперсии
- •Глава 10. Статистические критерии
- •10.1. Проверка гипотез
- •10.2. Ошибки проверки гипотез
- •Раздел 3. Случайные процессы Глава 11. Основные понятия и модели случайных процессов
- •11.1. Классификация случайных процессов
- •11.2. Основные характеристики случайного процесса
- •Свойства математического ожидания сп
- •Свойства дисперсии сп
- •Свойства корреляционной (автоковариационной) функции сп
- •Свойства нормированной корреляционной функции сп
- •11.2. Стационарные случайные процессы
- •11.3. Марковские случайные процессы
- •11.4. Потоки событий (Пуассоновские потоки)
- •11.5. Непрерывный марковский процесс. Уравнения Колмогорова
- •Заключение
- •Список литературы Основная
- •Дополнительная
4.5.1. Свойства дисперсии
Дисперсия константы равна нулю:
(4.30)
Постоянный множитель можно выносить за знак дисперсии, возведя его при этом в квадрат:
(4.31)
Дисперсия алгебраической суммы конечного числа независимых СВ равна сумме их дисперсий. Покажем это свойство для двух СВ:
(4.32)
Учтем, что и независимые случайные величины, для которых выполняются свойства (4.20) и (4.25), то есть:
(4.33)
С учетом (4.33) выражение (4.32) примет окончательный вид:
(4.34)
Вычислим дисперсию разности СВ:
(4.35)
Таким образоим мы доказали следующее свойство: Дисперсия разности равна сумме дисперсий.
Второй центральный момент случайной величины равен разности между вторым начальным моментом и квадратом первого начального момента этой случайной величины. Другими словами:
Дисперсия случайной величины равна разности между математическим ожиданием квадрата случайной величины и квадратом ее математического ожидания:
(4.36)
Дисперсия произведения независимых СВ
и
равна произведению дисперсии
на дисперсию
плюс произведение квадрата математического
ожидания СВ
на дисперсию
плюс произведение квадрата математического
ожидания СВ
на дисперсию
.
Покажем это:
(4.37)
4.5.2. Асимметрия и эксцесс
Третий
центральный момент
служит для характеристики асимметрии
(скошенности)
распределения.
Так как
третий центральный момент имеет
размерность куба случайной величины,
то чтобы получить безразмерную
характеристику, третий центральный
момент делят на куб среднего квадратического
отклонения СВ
:
(4.38)
Величина
называется коэффициентом
асимметрии случайной величины.
Рис. 4.7. Характеристика асимметрии распределений
На
рис.4.7 показаны два распределения,
имеющих положительную (распределение
1) и отрицательную (распределение 2)
асимметрию. Естественно, что для
симметричного распределения
.
Четвертый
центральный момент
служит для характеристики крутости
(островершинности)
распределения.
Эксцессом случайной величины называется число
(4.39)
Число
3 в выражении (4.39) вычитается из отношения
потому, что для наиболее часто
встречающегося нормального распределения
это отношение равно 3. Таким образом,
распределения более островершинные,
чем нормальное имеют положительный
эксцесс, распределения с меньшей
крутостью, чем нормальное – отрицательный
эксцесс, для нормального распределения
эксцесс равен нулю (рис. 4.8).
Рис.4.8. Характеристика островершинности распределений
ПРИМЕР
10 Для равномерно распределенной СВ
(см. ПРИМЕР 8) необходимо вычислить
.
РЕШЕНИЕ: a)
Вспомним, что
.
b)
Дисперсию вычислим по формуле (4.36):
c)
d)
Глава 5. Многомерные случайные величины
5.1. Многомерная случайная величина и закон ее распределения
Очень
часто результат испытания характеризуется
не одной случайной величиной, а некоторой
системой
случайных величин
,
которую называют также многомерной
(
мерной)
случайной
величиной
или случайным
вектором
.
Случайные
величины
,
входящие в систему, могут быть как
дискретными,
так и непрерывными.
Приведем примеры многомерных случайных величин:
физическое состояние человека можно охарактеризовать системой случайных величин:
рост,
вес,
возраст, и т.п.успеваемость студента можно описать многомерной случайной величиной
,
где
оценка по
му
предмету.
Геометрически
двумерную и трехмерную случайные
величины можно интерпретировать
случайной точкой (вектором) на плоскости
или в трехмерном пространстве
.
Как отмечалось ранее, наиболее полным
описанием СВ является закон
ее распределения.
Дальнейшее рассмотрение многомерных
СВ проведем на примере двумерных
случайных величин.
Определим, как и для одномерной СВ, интегральную функцию распределения двумерной СВ:
(5.1)
Геометрически
функция распределения
означает вероятность попадания случайной
точки
в заштрихованную область – бесконечный
квадрант, лежащий левее и ниже точки
(рис. 5.1).
Рис.
5.1. Функция распределения двумерной СВ
Правая и верхняя границы области в квадрант не включаются – это значит, что функция распределения непрерывна слева по каждому из аргументов.
В случае дискретной двумерной случайной величины ее функция распределения определяется по формуле:
(5.2)
Здесь
(5.2) суммирование вероятностей производится
по всем значениям
,
для которых
и по всем
,
для которых
.
