
- •С.Е.Игнатова теория вероятностей
- •Санкт-Петербург
- •Утверждено редакционно-издательским советом сПбГиэу
- •Игнатова с.Е.
- •Содержание:
- •Предисловие
- •Введение
- •Краткая историческая справка.
- •1. Правила действия со случайными событиями и вероятностями их осуществления.
- •1.1. Предмет теории вероятностей.
- •1.2. Основные формулы комбинаторики.
- •1.3. Испытания и события.
- •1.4. Виды случайных событий.
- •1.5. Классическое определение вероятности.
- •1.6. Статистическая вероятность.
- •1.7. Геометрическая вероятность.
- •1.8. Аксиоматика а.Н. Колмогорова.
- •1.9. Алгебра событий.
- •1.10. Теоремы сложения вероятностей.
- •1.11. Условные вероятности, независимость событий и экспериментов.
- •1.11.1. Теоремы умножения вероятностей.
- •1.11.2. Формула полной вероятности.
- •1.11.3. Вероятность гипотез. Формула Байеса.
- •1.11.4. Схема независимых испытаний (схема Бернулли).
- •2. Случайные величины и законы распределения вероятностей.
- •2.1. Виды случайных величин.
- •2.2. Закон распределения вероятностей дискретной случайной величины.
- •2.2.1. Функция распределения вероятностей случайной величины.
- •2.2.2. Плотность распределения вероятностей непрерывной случайной величины.
- •2.3. Основные числовые характеристики случайных величин.
- •2.3.1. Математическое ожидание.
- •2.3.2. Дисперсия.
- •2.3.3. Среднее квадратическое отклонение.
- •2.3.4. Мода и медиана.
- •2.4. Производящие функции моментов.
- •2.5. Законы распределения вероятностей, наиболее распространенные в практике статистических исследований.
- •Вероятностный смысл параметров:
- •2.5.1. Вероятность попадания в заданный интервал нормальной случайной величины.
- •2.5.2. Вычисление вероятности заданного отклонения.
- •2.5.3. Правило трёх сигм.
- •2.6. Последовательности случайных величин в дискретном вероятностном пространстве.
- •3. Закон больших чисел и центральная предельная теорема.
- •4. Совместное распределение случайных величин.
- •4.1. Закон распределения двумерной случайной величины.
- •4.2. Вычисление основных числовых характеристик случайных величин х и y.
- •4.3. Условные распределения.
- •4.4. Зависимые и независимые случайные величины.
- •4.5. Коэффициент корреляции двух случайных величин и его свойства.
- •4.6. Независимость и некоррелированность.
- •4.7. Нормальный закон распределения на плоскости.
- •Вероятностный смысл параметров:
- •4.8. Линейная регрессия. Прямые линии среднеквадратической регрессии.
- •5. Последовательности, образующие цепь Маркова.
- •5.1. Равенство Маркова.
- •5.2. Финальные вероятности.
- •Заключение
- •Список литературы:
- •Сведения об авторе.
4.7. Нормальный закон распределения на плоскости.
Определение: Нормальным законом распределения на плоскости называют распределение вероятностей непрерывной двумерной случайной величины (X, Y), если плотность совместного распределения вероятностей ее компонент имеет вид:
Вероятностный смысл параметров:
a1, a2 – математические ожидания случайных величин X и Y соответственно;
средние квадратические
отклонения случайных величин X
и Y
соответственно;
коэффициент
корреляции случайных величин X
и Y.
Теорема: Для нормально распределённых компонент X и Y двумерной случайной величины (X, Y) понятия независимости и некоррелированности равносильны.
Доказательство:
Докажем, что если компоненты двумерной,
нормально распределенной случайной
величины некоррелированны, то они и
независимы. Пусть случайные величины
X и
Y
некоррелированны. Тогда, полагая в
формуле плотности совместного
распределения вероятностей
0,
получим:
Следовательно, случайные величины X и Y независимы.
Справедливо и обратное утверждение (ведя рассуждения от конца к началу, получим, что независимые случайные величины X и Y некоррелированны).
Можно доказать,
что если двумерная случайная величина
(X, Y)
распределена нормально с параметрами
,
то её компоненты X
и Y
также распределены нормально с
параметрами, соответственно равными
и
.
4.8. Линейная регрессия. Прямые линии среднеквадратической регрессии.
Рассмотрим двумерную случайную величину (X, Y), где X и Y – независимые случайные величины. Представим одну из этих величин, как функцию другой. Ограничимся приближённым представлением (точное приближение, вообще говоря, невозможно) величины Y в виде линейной функции величины X:
где α и β – параметры, подлежащие определению. Найдем α и β, например, методом наименьших квадратов.
Определение:
Функцию
называют наилучшим приближением Y в
смысле метода наименьших квадратов,
если
принимает
наименьшее возможное значение. Функцию
g(x)
называют линейной среднеквадратической
регрессией Y
на X.
Теорема: Линейная среднеквадратическая регрессия Y на X имеет вид:
Доказательство: Рассмотрим функцию двух независимых аргументов α и β:
Отнимем и прибавим М(Y) и β М(X), сгруппируем и получим:
Учитывая, что:
и, выполнив выкладки, получим:
(1)
Исследуем функцию F(α, β) на экстремум, для чего приравняем к нулю частные производные:
Отсюда находим:
Легко убедиться, что при этих значениях α и β рассматриваемая функция принимает наименьшее значение.
Итак,
Определение:
Коэффициент
называют
коэффициентом
регрессии Y
на X,
а прямую
(2)
называют прямой среднеквадратической регрессии Y на X.
Подставим найденные значения α и β в формулу (1), получим:
Величину
называют остаточной
дисперсией
случайной величины Y
относительно случайной величины X.
Она характеризует величину ошибки,
которую допускают при замене Y
линейной функцией
.
При
остаточная
дисперсия
равна нулю. Т.е. при этих крайних значениях
коэффициента корреляции не возникают
ошибки при представлении Y
в виде линейной функции от X.
Вывод: Если , то Y и X связаны линейной функциональной зависимостью.
Аналогично можно получить прямую среднеквадратической регрессии X на Y:
(3)
Тогда
– коэффициент
регрессии X
на Y,
– остаточная
дисперсия X
относительноY.
Заметим, что при обе прямые регрессии, как видно из уравнений (2) и (3), совпадают.
Также из (2) и (3) следует, что обе прямые регрессии проходят через точку (M(X), M(Y)), которую называют центром совместного распределения случайных величин X и Y.