
- •Раздел I. Линейные системы. Цифровые фильтры
- •Системы хранения медиаданных
- •Скорости и интерфейсы
- •Расчет аналогового нормированного фильтра нижних частот Баттерворта
- •Df 1. Введение в адаптивные фильтры
- •1.1. Адаптивная обработка данных
- •1.1.1 Адаптивные фильтры
- •1.1.2 Принцип действия адаптивного фильтра
- •1.4 Адаптивные фильтры
- •1.4.1 Адаптивные фильтры с бесконечной импульсной характеристикой
- •1.4.2 Адаптивные фильтры с конечной импульсной характеристикой
- •1.4.3 Адаптивные фильтры, основанные на методах преобразования сигнала
- •3 Адаптивные алгоритмы для фильтров с конечной импульсной характеристикой
- •3.1. Введение
- •4. Адаптивные алгоритмы для фильтров с бесконечной импульсной характеристикой
- •4.1. Введение
- •4.1.1 Общий обзор
- •2.3 Оптимальное рекурсивное калмановское оценивание
- •2.3.1 Скалярный фильтр Калмана
- •2.3.2. Вывод коэффициента фильтра Калмана
- •2.4. Векторный фильтр Калмана
- •2.4.1. Векторный фильтр Калмана в качестве устройства коррекции канала
- •Требования к вейвлетам
- •Свойства вейвлет преобразования
- •Непрерывное вейвлет-преобразование
- •Дискретное вейвлет-преобразование
- •Графическое представление
- •Применение
- •Примечания
- •Чирплет
- •Аналогия с другими преобразованиями
- •Чирплеты и чирплет-преобразование
- •Приложения
- •Систематика чирплет-преобразования
- •Df Глава 1. Постановка задачи и обзор моделей прогнозирования временных рядов
- •1.1. Содержательная постановка задачи
- •1.2. Формальная постановка задачи
- •1.3. Обзор моделей прогнозирования
- •1.3.1. Регрессионные модели
- •1.3.2. Авторегрессионные модели
- •1.3.3. Модели экспоненциального сглаживания
- •1.3.4. Нейросетевые модели
- •1.3.5. Модели на базе цепей Маркова
- •1.3.6. Модели на базе классификационно-регрессионных деревьев
- •1.1.1. Другие модели и методы прогнозирования
- •1.4. Сравнение моделей прогнозирования
- •1.4.1. Достоинства и недостатки моделей
- •1.4.2. Комбинированные модели
- •1.5. Выводы
- •Тема 15. Регрессия
- •Введение
- •15.1. Постановка задачи регрессии
- •15.2. Линейная регрессия [25]
- •15.3. Полиномиальная регрессия [25]
- •15.4. Нелинейная регрессия [25]
- •15.5. Сглаживание данных [25]
- •15.6. Предсказание зависимостей [25]
- •Df Линейная регрессия
- •8. Регрессия
- •8.1. Детерминированные и статистические зависимости
- •8.2. Корреляция и коэффициент корреляции
- •8.3. Уравнения регрессии
- •8.3.1. Линейная регрессия
- •8.3.2. Полиномиальная регрессия
- •8.3.3. Нелинейная регрессия
- •8.4. Сглаживание данных
- •8.5. Предсказание зависимостей
- •Параболическая и экспоненциальная регрессия.
- •Аппроксимация. Параболическая регрессия
- •Интерполяция
- •[Править]Определения
- •[Править]Пример
- •[Править]Способы интерполяции [править]Интерполяция методом ближайшего соседа
- •[Править]Интерполяция многочленами
- •[Править]Определение и история
- •[Править]Классификация сплайнов
- •Интерполяционный сплайн
- •1.4. Линейные операторы
- •Фильтр Гаусса
- •Фильтр Лапласа
- •Компьтерное зрение. Оператор Собеля Среда, Февраль 10th, 2010 | Программирование (10 голосов, средний: 4.60 из 5)
- •Быстрое размытие по Гауссу
8.3. Уравнения регрессии
Аппроксимация данных с учетом их статистических параметров относится к задачам регрессии. Они обычно возникают при обработке экспериментальных данных, полученных в результате измерений процессов или физических явлений, статистических по своей природе (как, например, измерения в радиометрии и ядерной геофизике), или на высоком уровне помех (шумов). Задачей регрессионного анализа является подбор математических формул, наилучшим образом описывающих экспериментальные данные.
Математическая
постановка задачи регрессии заключается
в следующем. Зависимость величины
(числового значения) определенного
свойства случайного процесса или
физического явления Y от
другого переменного свойства или
параметра Х,
которое в общем случае также может
относиться к случайной величине,
зарегистрирована на множестве
точек
множеством
значений
при
этом в каждой точке зарегистрированные
значения Yk и Xk отображают
действительные значения Yk(Xk) со
случайной погрешностью
,
распределенной, как правило, по нормальному
закону. По совокупности значений Yk требуется
подобрать функцию
для
которой зависимость Y(X) отображалась
бы с минимальной погрешностью.
Функцию называют регрессией величины y на величину х. Регрессионный анализ предусматривает задание вида функции и определение численных значений ее параметров a0, a1, … , an, обеспечивающих наименьшую погрешность приближения к множеству значений Yk. Как правило, при регрессионном анализе погрешность приближения вычисляется методом наименьших квадратов (МНК).
Виды регрессии обычно называются по типу аппроксимирующих функций: полиномиальная, экспоненциальная, логарифмическая и т.п.
8.3.1. Линейная регрессия
Если разброс точек около предполагаемой кривой зависимости одной величины от другой невелик, то эту зависимость можно определить с помощью МНК, подбирая подходящие параметры этой функции. Если разброс точек велик, то, как правило, достаточно трудно подобрать какую-либо иную функцию, кроме линейной. Такая эмпирическая кривая будет прямой регрессии.
Пусть
мы имеем некоторое количество пар
точек
,
.
Подберем прямую, проходящую между этими
точками, и, в некотором смысле, наилучшим
способом аппроксимирующую зависимость Y от
.
Точки
(Xk, Yk),
вообще говоря, не лежат на аппроксимирующей
прямой. Поэтому
,
где
-
расстояние по ординате точки (Xk, Yk)
до этой прямой.
Введем в рассмотрение арифметические средние
|
Потребуем,
чтобы выполнялось условие
.
Получим
.
Снова
будем пользоваться обозначениями
центрированных переменных
,
.
Теперь наши исходные уравнения принимают
вид
.
Для определения А применим метод наименьших квадратов
|
где, как и раньше,
|
Величина А является коэффициентом регрессии, а уравнение регрессии принимает вид
|
Для
построения функции линейной регрессии
применяют полином первой степени, т.е.
функцию вида
(рис.
8.3.1).
|
Рис. 8.3.1. Линейная регрессия. |
Отклонения
точек (Xk, Yk)
от прямой регрессии создают некоторую
неопределенность (ошибку) в вычислении
коэффициента регрессии А.
Для вычисления ошибки А воспользуемся
правилами МНК. Нормальным уравнением
для МНК-оценки коэффициента регрессии
будет
,
а остаточные разности суть отклонения Yk от
коэффициента регрессии в точках
.
Вычислим
среднеквадратическую ошибку «единицы
веса»
Нужно
заметить, что хотя нормальное уравнение
содержит одну неизвестную величину, в
знаменателе приведенной формулы нужно
брать n-2, так как число степеней свободы
прямой регрессии две: параллельный
перенос и поворот. Степень свободы
параллельного переноса мы использовали,
выбрав за начало отсчета точку плоскости
с координатами
.
Весом неизвестного А является коэффициент [xx] нормального уравнения, поэтому
|
Полученную формулу можно упростить, если ввести в рассмотрение эмпирический коэффициент корреляции. Раскрывая скобки и суммируя, получим
|
Подставим
сюда
.
|
Следовательно,
.
Обозначим
.
Теперь
.
Переменные X и Y в
данной задаче равноправны. В отличие
от классических задач, в которых
используется метод наименьших
квадратов, Xk не
являются точными значениями аргумента.
Несовпадение прямой регрессии с
наблюдательными данными в том числе
вызвано и погрешностями в определении Xk.
Поэтому задачу аппроксимации зависимости
этих двух переменных друг от друга можно
также решать, как определение линейной
зависимости X от
.
Тогда, повторяя приведенные выше выкладки, получим
|
Зависимость Y от X при условии минимизации отклонений Yk от прямой регрессии, как уже говорилось, называется регрессией y на x. Наоборот, зависимость X от Y называется регрессией x на y. Эти две прямые, вообще говоря, не совпадают.