
- •Раздел I. Линейные системы. Цифровые фильтры
- •Системы хранения медиаданных
- •Скорости и интерфейсы
- •Расчет аналогового нормированного фильтра нижних частот Баттерворта
- •Df 1. Введение в адаптивные фильтры
- •1.1. Адаптивная обработка данных
- •1.1.1 Адаптивные фильтры
- •1.1.2 Принцип действия адаптивного фильтра
- •1.4 Адаптивные фильтры
- •1.4.1 Адаптивные фильтры с бесконечной импульсной характеристикой
- •1.4.2 Адаптивные фильтры с конечной импульсной характеристикой
- •1.4.3 Адаптивные фильтры, основанные на методах преобразования сигнала
- •3 Адаптивные алгоритмы для фильтров с конечной импульсной характеристикой
- •3.1. Введение
- •4. Адаптивные алгоритмы для фильтров с бесконечной импульсной характеристикой
- •4.1. Введение
- •4.1.1 Общий обзор
- •2.3 Оптимальное рекурсивное калмановское оценивание
- •2.3.1 Скалярный фильтр Калмана
- •2.3.2. Вывод коэффициента фильтра Калмана
- •2.4. Векторный фильтр Калмана
- •2.4.1. Векторный фильтр Калмана в качестве устройства коррекции канала
- •Требования к вейвлетам
- •Свойства вейвлет преобразования
- •Непрерывное вейвлет-преобразование
- •Дискретное вейвлет-преобразование
- •Графическое представление
- •Применение
- •Примечания
- •Чирплет
- •Аналогия с другими преобразованиями
- •Чирплеты и чирплет-преобразование
- •Приложения
- •Систематика чирплет-преобразования
- •Df Глава 1. Постановка задачи и обзор моделей прогнозирования временных рядов
- •1.1. Содержательная постановка задачи
- •1.2. Формальная постановка задачи
- •1.3. Обзор моделей прогнозирования
- •1.3.1. Регрессионные модели
- •1.3.2. Авторегрессионные модели
- •1.3.3. Модели экспоненциального сглаживания
- •1.3.4. Нейросетевые модели
- •1.3.5. Модели на базе цепей Маркова
- •1.3.6. Модели на базе классификационно-регрессионных деревьев
- •1.1.1. Другие модели и методы прогнозирования
- •1.4. Сравнение моделей прогнозирования
- •1.4.1. Достоинства и недостатки моделей
- •1.4.2. Комбинированные модели
- •1.5. Выводы
- •Тема 15. Регрессия
- •Введение
- •15.1. Постановка задачи регрессии
- •15.2. Линейная регрессия [25]
- •15.3. Полиномиальная регрессия [25]
- •15.4. Нелинейная регрессия [25]
- •15.5. Сглаживание данных [25]
- •15.6. Предсказание зависимостей [25]
- •Df Линейная регрессия
- •8. Регрессия
- •8.1. Детерминированные и статистические зависимости
- •8.2. Корреляция и коэффициент корреляции
- •8.3. Уравнения регрессии
- •8.3.1. Линейная регрессия
- •8.3.2. Полиномиальная регрессия
- •8.3.3. Нелинейная регрессия
- •8.4. Сглаживание данных
- •8.5. Предсказание зависимостей
- •Параболическая и экспоненциальная регрессия.
- •Аппроксимация. Параболическая регрессия
- •Интерполяция
- •[Править]Определения
- •[Править]Пример
- •[Править]Способы интерполяции [править]Интерполяция методом ближайшего соседа
- •[Править]Интерполяция многочленами
- •[Править]Определение и история
- •[Править]Классификация сплайнов
- •Интерполяционный сплайн
- •1.4. Линейные операторы
- •Фильтр Гаусса
- •Фильтр Лапласа
- •Компьтерное зрение. Оператор Собеля Среда, Февраль 10th, 2010 | Программирование (10 голосов, средний: 4.60 из 5)
- •Быстрое размытие по Гауссу
1.3.1. Регрессионные модели
Существует много задач, требующих изучения отношения между двумя и более переменными. Для решения таких задач используется регрессионный анализ [19]. В настоящее время регрессия получила широкое применение, включая задачи прогнозирования и управления. Целью регрессионного анализа является определение зависимости между исходной переменной и множеством внешних факторов (регрессоров). При этом коэффициенты регрессии могут определяться по методу наименьших квадратов [19] или методу максимального правдоподобия [20].
Линейная регрессионная модель. Самым простым вариантом регрессионной модели является линейная регрессия. В основу модели положено предположение, что существует дискретный внешний фактор X(t), оказывающий влияние на исследуемый процесс Z(t), при этом связь между процессом и внешним фактором линейна. Модель прогнозирования на основании линейной регрессии описывается уравнением
(1.5)
где α0 и α1 — коэффициенты регрессии; εt — ошибка модели. Для получения прогнозных значений Z(t) в момент времени t необходимо иметь значение X(t) в тот же момент времени t, что редко выполнимо на практике.
Множественная регрессионная модель. На практике на процесс Z(t) оказывают влияние целый ряд дискретных внешних факторов X1(t),…,XS(t). Тогда модель прогнозирования имеет вид
(1.6)
Недостатком данной модели является то, что для вычисления будущего значения процесса Z(t) необходимо знать будущие значения всех факторов X1(t),…,XS(t), что почти невыполнимо на практике.
В основу нелинейной регрессионной модели положено предположение о том, что существует известная функция, описывающая зависимость между исходным процессом Z(t) и внешним фактором X(t)
(1.7)
В рамках построения модели прогнозирования необходимо определить параметры функции A. Например, можно предположить, что
(1.8)
Для
построения модели достаточно определить
параметры
.
Однако на практике редко встречаются
процессы, для которых вид функциональной
зависимости между процессом Z(t) и
внешним фактором X(t) заранее известен.
В связи с этим нелинейные регрессионные
модели применяются редко.
Модель группового учета аргументов (МГУА) была разработана Ивахтенко А.Г. [21]. Модель имеет вид
(1.9)
Уравнение (1.9) называется опорной функцией. Используя опорную функцию, строят различные варианты моделей для некоторых или всех аргументов. Например, строятся полиномы с одной переменной, полиномы со всевозможными парами переменных, полиномы со всевозможными тройками переменных и т.д. Для каждой модели определяются её линейные коэффициенты αi,j,k,... методом регрессионного анализа. Среди всех моделей выбираются несколько (от 2 до 10) наилучших. При этом качество моделей определяется, например, среднеквадратичным отклонением или иным критерием. Если среди выбранных имеется модель, качество которой достаточно для использования полученных прогнозных значений, то процесс перебора моделей прекращается. Иначе отобранные модели используются в качестве аргументов X1(t),…,XS(t) для опорных функций следующего этапа итерации. То есть уже найденные модели участвуют в формировании более сложных.