- •Лекция 1. Предмет теории вероятностей и математической статистики и их роль в экономике и менеджменте
- •Лекция 2. Аксиоматика теории вероятности Понятие случайного эксперимента.
- •Пространство элементарных событий.
- •Совместные и несовместные события.
- •Операции над событиями (сумма, разность, произведение).
- •Свойства операций над событиями.
- •Алгебра и сигма-алгебра событий.
- •Лекция 3. Методы определения вероятностей событий
- •Классическое определение вероятности события. Случаи равновероятных исходов.
- •Статистическое определение вероятности события. Случаи неравновероятных исходов.
- •Геометрические вероятности.
- •Аксиоматическое построение теории вероятностей.
- •Вероятностное пространство
- •Лекция 4. Основные теоремы теории вероятностей. Формула полной вероятности и формула Байеса Полная группа событий.
- •Условная вероятность.
- •Формула умножения вероятностей.
- •Формула сложения вероятностей.
- •Независимость событий.
- •Формула полной вероятности.
- •Формула Байеса
- •Основные понятия комбинаторики.
- •Правила суммы и произведения.
- •Лекция 5. Схема независимых испытаний Бернулли
- •Случай непостоянной вероятности появления события в опытах
- •Наивероятнейшее число наступления событий в схеме Бернулли.
- •Предельные теоремы для схемы Бернулли.
- •Теорема Пуассона.
- •Понятие потока событий.
- •Локальная теорема Муавра –Лапласа.
- •Интегральная (глобальная) теорема Муавра – Лапласа.
- •Лекция 6. Виды случайных величин и расчет вероятностей событий с использованием функций и плотностей распределения
- •Закон распределения дискретной случайной величины.
- •Функция распределения случайной величины и ее свойства.
- •Свойства функции распределения
- •Плотность распределения вероятностей.
- •Лекция 7. Основные параметры распределений одномерных случайных величин.
- •Математическое ожидание случайной величины
- •Свойства математического ожидания:
- •Дисперсия случайной величины и ее свойства.
- •Среднее квадратическое отклонение.
- •Лекция 8. Основные законы распределений случайных величин
- •Биномиальное распределение, его математическое ожидание и дисперсия.
- •Распределение Пуассона.
- •Геометрическое распределение
- •Гипергеометрическое распределение (урновая схема)
- •Равномерное распределение.
- •Показательное распределение.
- •Лекция 9. Нормальное распределение и его свойства
- •Свойства функции Гаусса.
- •Вероятность попадания нормальной случайной величины в заданный интервал.
- •Функция Лапласа и ее свойства.
- •О тклонение нормальной случайной величины от ее математического ожидания. Правило «трех сигм».
- •Лекция 10. Многомерные случайные величины
- •Закон распределения вероятностей двумерной случайной величины
- •Совместная функция распределения двух случайных величин
- •Свойства совместной функции распределения двух случайных величин
- •Плотность совместного распределения вероятностей непрерывной двумерной случайной величины
- •Свойства двумерной плотности вероятности
- •Независимые случайные величины
- •Для независимых случайных величин справедливы соотношения
- •Числовые характеристики системы двух случайных величин
- •Корреляционный момент
- •Коэффициент корреляции
- •Свойства коэффициента корреляции
- •Лекция 11. Предельные теоремы теории вероятностей.
- •Неравенство Чебышева
- •Теорема Чебышева.
- •Центральная предельная теорема.
- •Лекция 12. Выборочный метод анализа свойств генеральной совокупности.
- •Выборочный метод и его основные понятия. Случайная выборка и ее объем
- •Способы отбора
- •Вариационный ряд для дискретных и непрерывных случайных величин.
- •Полигон и гистограмма
- •Лекция 13. Понятие о статистических оценках случайных величин Эмпирическая функция распределения
- •Важнейшие свойства статистических оценок
- •Надежность и доверительный интервал.
- •Лекция 14. Доверительные интервалы для математического ожидания и дисперсии Доверительный интервал для математического ожидания нормального распределения при известной дисперсии.
- •Доверительный интервал для математического ожидания нормального распределения при неизвестной дисперсии
- •. Доверительный интервал для оценки среднего квадратического отклонения нормального распределения
- •Лекция 15. Проверка статистических гипотез.
- •Статистический критерий
- •Критическая область. Область принятия гипотезы. Критические точки.
- •Критерий согласия Пирсона о виде распределения.
- •Лекция 16. (уир) Понятие о регрессионном анализе
- •Понятие о регрессионном анализе
- •Выборочные уравнения регрессии.
- •Линейная регрессия
- •Множественная линейная регрессия
- •Нелинейная регрессия
- •Логарифмическая модель.
- •Обратная модель.
- •Степенная модель.
- •Показательная модель.
- •Лекция 17 (уир). Понятие о корреляционном анализе.
- •А. Парная корреляция
- •Б. Множественная корреляция
- •Лекция 18 (уир). Цепи Маркова с дискретным временем
- •Однородные цепи Маркова
- •Переходные вероятности. Матрица перехода.
- •Равенство Маркова
- •Лекция 19 (уир). Цепи Маркова с непрерывным временем.
- •Уравнения Колмогорова
- •Финальные вероятности состояний системы
- •Лекция 20 (уир). Системы массового обслуживания.
- •Расчет характеристик систем массового обслуживания Одноканальные модели а. Одноканальная модель с отказами
- •Б. Одноканальная модель с ожиданием
- •Многоканальные модели
Лекция 16. (уир) Понятие о регрессионном анализе
Две или несколько случайных величин могут быть связаны либо функциональной, либо статистической (стохастической) зависимостью.
В экономике строгая функциональная зависимость реализуется редко, так как экономические показатели подвержены действию случайных, часто неконтролируемых факторов. Чаще имеет место так называемая статистическая зависимость, при которой изменение одной из величин влечет изменение распределения другой. В частности, при изменении одной из величин может изменяться среднее значение другой.
Пример статистической зависимости: урожай зерна Y зависит от количества внесенных удобрений X . С одинаковых по площади участков при равных количествах внесенных удобрений снимают разные урожаи. Это связано с влиянием случайных факторов (осадки, температура воздуха и др.). Вместе с тем, средний урожай зависит от количества удобрений, т.е. Y связано с X статистической зависимостью.
При изучении статистических зависимостей различают корреляцию и регрессию. Основным методом исследования статистических зависимостей выступает корреляционно – регрессионный анализ.
Корреляционный анализ состоит в определении степени связи между случайными величинами.
Регрессионный анализ устанавливает формы зависимости между случайной величиной Y (зависимой переменной) и значениями одной или нескольких переменных величин X (независимыми переменными).
Понятие о регрессионном анализе
При рассмотрении взаимосвязей, как правило, рассматривают одну из величин (X) как независимую (объясняющую), а другую (Y) как зависимую (объясняемую). При этом изменение первой из них может служить причиной изменения другой. Например, рост дохода ведет к увеличению потребления; рост цены – к снижению спроса; снижение процентной ставки увеличивает инвестиции и т.д. Эта зависимость не является однозначной в том смысле, что каждому конкретному значению объясняющей переменой X может соответствовать не одно, а множество значений Y. Другими словами, каждому конкретному значению независимой переменной соответствует некоторое вероятностное распределение зависимой переменной. Поэтому анализируют, как объясняющая переменная (или переменные) влияет (или влияют) на зависимую переменную "в среднем". Зависимость такого типа, выражаемая соотношением
называется функцией регрессии Y на X. При рассмотрении зависимости двух случайных величин говорят о парной регрессии.
Зависимость нескольких переменных, выражаемую функцией
называют множественной регрессией.
Под регрессией понимается функциональная зависимость между объясняющими переменными и условным математическим ожиданием (средним значением) зависимой переменной Y, которая строится с целью предсказания (прогнозирования) среднего значения Y при некоторых значениях независимых переменных.
Установление формы зависимости и оценка параметров функции регрессии являются задачами регрессионного анализа.
Так как реальные значения зависимой переменной могут быть различными при данном X (или ), зависимость должна быть дополнена некоторым слагаемым , которое, по существу, является случайной величиной. Получающиеся в результате соотношения
или
называются регрессионными уравнениями (или моделями).
Построение уравнения регрессии, описывающего эмпирические данные, включает три этапа:
выбор формулы уравнения регрессии;
определение параметров выбранного уравнения;
анализ качества уравнения и проверка адекватности уравнения эмпирическим данным и, при необходимости, совершенствование уравнения.
В случае парной регрессии выбор уравнения обычно осуществляется по графическому изображению реальных статистических данных - корреляционному полю.
Рис.1 Корреляционные поля. А) – линейная регрессия; Б) – квадратичная регрессия; В) – отсутствие выраженной связи Y и X.