- •1Классическое и статистическое определения вероятности события
- •Случайное событие
- •Определение
- •2Комбинаторика
- •Примеры комбинаторных конфигураций и задач
- •Разделы комбинаторики Перечислительная комбинаторика
- •Структурная комбинаторика
- •Экстремальная комбинаторика
- •Теория Рамсея
- •Вероятностная комбинаторика
- •Топологическая комбинаторика
- •Инфинитарная комбинаторика
- •3 Подсчет числа размещений, перестановок, сочетаний без повторов и с повторами
- •Достоверное и невозможное события
- •2.Основные формулы комбинаторики. Вероятность событий. Свойства Вероятностей. Геометрические вероятности.
- •4. Теорема умножения вероятностей. Теорема умножения для независимых событий. Вероятность появления хотя бы одного события.
- •5. Формула полной вероятности. Вероятность гипотез. Формула Бейеса.
- •7. Дискретные случайные величины и их характеристика. Закон распределения вероятностей дсв. Математическое ожидание дсв. Свойства математического ожидания.
- •6 Теорема сложения вероятностей
- •7Теорема умножения вероятностей
- •Теорема умножения вероятностей
- •Формулировка
- •Замечание
- •Формулировка
- •«Физический смысл» и терминология
- •Следствие
- •Пример расчёта
- •Формулировка
- •Доказательство
- •12 Предельные теоремы для схемы Бернулли
- •Пуассоновское приближение
- •Нормальное приближение
- •О применимости предельных теорем в схеме Бернулли
- •13 Локальная теорема Муавра — Лапласа
- •Применение
- •Формулировка
- •Доказательство
- •14 Дискретные случайные величины
- •Примеры дискретных случайных величин:
- •Непрерывные случайные величины
- •Примеры непрерывных случайных величин:
- •15Функция распределения
- •Определение
- •Свойства
- •16 Математическое ожидание
- •Математическое ожидание абсолютно непрерывного распределения
- •Математическое ожидание случайного вектора
- •Математическое ожидание преобразования случайной величины
- •Простейшие свойства математического ожидания
- •Дополнительные свойства математического ожидания
- •Примеры
- •Неравенство Чебышева в теории меры
- •Формулировки
- •Неравенство Чебышева в теории вероятностей
- •Формулировки
- •Определение
- •Свойства
- •Моделирование нормальных случайных величин
- •Центральная предельная теорема
- •Распределение Фишера—Снедекора
- •Теория вероятностей
- •Регрессионный анализ
- •23 Основные задачи математической статистики
- •1. Задача определения закона распределения случайной величины (или системы случайных величин) по статистическим данным
- •2. Задача проверки правдоподобия гипотез
- •3. Задача нахождения неизвестных параметров распределения
- •Сущность мнк
- •Мнк в случае линейной модели
- •Пример: простейшая (парная) регрессия
- •Свойства мнк-оценок
- •Обобщенный мнк
- •Взвешенный мнк
- •Некоторые частные случаи применения мнк на практике Аппроксимация линейной зависимости
- •27 Проверка статистических гипотез
- •Статистические гипотезы Определения
- •Этапы проверки статистических гипотез
- •Виды критической области
Обобщенный мнк
Основная статья: Обобщенный метод наименьших квадратов
Метод наименьших квадратов
допускает широкое обобщение. Вместо
минимизации суммы квадратов остатков
можно минимизировать некоторую
положительно определенную квадратичную
форму от вектора остатков
,
где
—
некоторая симметрическая положительно
определенная весовая матрица. Обычный
МНК является частным случаем данного
подхода, когда весовая матрица
пропорциональна единичной матрице. Как
известно из теории симметрических
матриц (или операторов) для таких матриц
существует разложение
.
Следовательно, указанный функционал
можно представить следующим образом
,
то есть этот функционал можно представить
как сумму квадратов некоторых
преобразованных «остатков». Таким
образом, можно выделить класс методов
наименьших квадратов — LS-методы
(Least Squares).
Доказано (теорема Айткена), что
для обобщенной линейной регрессионной
модели (в которой на ковариационную
матрицу случайных ошибок не налагается
никаких ограничений) наиболее эффективными
(в классе линейных несмещенных оценок)
являются оценки т. н. обобщенного
МНК (ОМНК, GLS — Generalized Least Squares) —
LS-метода с весовой матрицей, равной
обратной ковариационной матрице
случайных ошибок:
.
Можно показать, что формула ОМНК-оценок параметров линейной модели имеет вид
Ковариационная матрица этих оценок соответственно будет равна
Фактически сущность ОМНК заключается в определенном (линейном) преобразовании (P) исходных данных и применении обычного МНК к преобразованным данным. Цель этого преобразования — для преобразованных данных случайные ошибки уже удовлетворяют классическим предположениям.
Взвешенный мнк
В случае диагональной весовой
матрицы (а значит и ковариационной
матрицы случайных ошибок) имеем так
называемый взвешенный МНК (WLS —
Weighted Least Squares). В данном случае минимизируется
взвешенная сумма квадратов остатков
модели, то есть каждое наблюдение
получает «вес», обратно пропорциональный
дисперсии случайной ошибки в данном
наблюдении:
.
Фактически данные преобразуются
взвешиванием наблюдений (делением на
величину, пропорциональную предполагаемому
стандартному отклонению случайных
ошибок), а к взвешенным данным применяется
обычный МНК.
Некоторые частные случаи применения мнк на практике Аппроксимация линейной зависимости
Рассмотрим случай, когда в
результате изучения зависимости
некоторой скалярной
величины
от
некоторой скалярной величины
(Это
может быть, например, зависимость
напряжения
от
силы
тока
:
,
где
—
постоянная величина, сопротивление
проводника)
было проведено
измерений
этих величин, в результате которых были
получены значения
и
соответствующие им значения
.
Данные измерений должны быть записаны
в таблице.
Таблица. Результаты измерений.
№ измерения |
|
|
1 |
|
|
2 |
|
|
3 |
|
|
4 |
|
|
5 |
|
|
6 |
|
|
Вопрос звучит так: какое значение
коэффициента
можно
подобрать, чтобы наилучшим образом
описать зависимость
?
Согласно МНК это значение должно быть
таким, чтобы сумма квадратов
отклонений величин
от
величин
была минимальной
Сумма квадратов отклонений имеет один экстремум — минимум, что позволяет нам использовать эту формулу. Найдём из этой формулы значение коэффициента . Для этого преобразуем её левую часть следующим образом:
Далее идёт ряд математических преобразований:
Последняя формула позволяет нам найти значение коэффициента , что и требовалось в задаче.
