
- •Раздел I. Линейные системы. Цифровые фильтры
- •Системы хранения медиаданных
- •Скорости и интерфейсы
- •Расчет аналогового нормированного фильтра нижних частот Баттерворта
- •Df 1. Введение в адаптивные фильтры
- •1.1. Адаптивная обработка данных
- •1.1.1 Адаптивные фильтры
- •1.1.2 Принцип действия адаптивного фильтра
- •1.4 Адаптивные фильтры
- •1.4.1 Адаптивные фильтры с бесконечной импульсной характеристикой
- •1.4.2 Адаптивные фильтры с конечной импульсной характеристикой
- •1.4.3 Адаптивные фильтры, основанные на методах преобразования сигнала
- •3 Адаптивные алгоритмы для фильтров с конечной импульсной характеристикой
- •3.1. Введение
- •4. Адаптивные алгоритмы для фильтров с бесконечной импульсной характеристикой
- •4.1. Введение
- •4.1.1 Общий обзор
- •2.3 Оптимальное рекурсивное калмановское оценивание
- •2.3.1 Скалярный фильтр Калмана
- •2.3.2. Вывод коэффициента фильтра Калмана
- •2.4. Векторный фильтр Калмана
- •2.4.1. Векторный фильтр Калмана в качестве устройства коррекции канала
- •Требования к вейвлетам
- •Свойства вейвлет преобразования
- •Непрерывное вейвлет-преобразование
- •Дискретное вейвлет-преобразование
- •Графическое представление
- •Применение
- •Примечания
- •Чирплет
- •Аналогия с другими преобразованиями
- •Чирплеты и чирплет-преобразование
- •Приложения
- •Систематика чирплет-преобразования
- •Df Глава 1. Постановка задачи и обзор моделей прогнозирования временных рядов
- •1.1. Содержательная постановка задачи
- •1.2. Формальная постановка задачи
- •1.3. Обзор моделей прогнозирования
- •1.3.1. Регрессионные модели
- •1.3.2. Авторегрессионные модели
- •1.3.3. Модели экспоненциального сглаживания
- •1.3.4. Нейросетевые модели
- •1.3.5. Модели на базе цепей Маркова
- •1.3.6. Модели на базе классификационно-регрессионных деревьев
- •1.1.1. Другие модели и методы прогнозирования
- •1.4. Сравнение моделей прогнозирования
- •1.4.1. Достоинства и недостатки моделей
- •1.4.2. Комбинированные модели
- •1.5. Выводы
- •Тема 15. Регрессия
- •Введение
- •15.1. Постановка задачи регрессии
- •15.2. Линейная регрессия [25]
- •15.3. Полиномиальная регрессия [25]
- •15.4. Нелинейная регрессия [25]
- •15.5. Сглаживание данных [25]
- •15.6. Предсказание зависимостей [25]
- •Df Линейная регрессия
- •8. Регрессия
- •8.1. Детерминированные и статистические зависимости
- •8.2. Корреляция и коэффициент корреляции
- •8.3. Уравнения регрессии
- •8.3.1. Линейная регрессия
- •8.3.2. Полиномиальная регрессия
- •8.3.3. Нелинейная регрессия
- •8.4. Сглаживание данных
- •8.5. Предсказание зависимостей
- •Параболическая и экспоненциальная регрессия.
- •Аппроксимация. Параболическая регрессия
- •Интерполяция
- •[Править]Определения
- •[Править]Пример
- •[Править]Способы интерполяции [править]Интерполяция методом ближайшего соседа
- •[Править]Интерполяция многочленами
- •[Править]Определение и история
- •[Править]Классификация сплайнов
- •Интерполяционный сплайн
- •1.4. Линейные операторы
- •Фильтр Гаусса
- •Фильтр Лапласа
- •Компьтерное зрение. Оператор Собеля Среда, Февраль 10th, 2010 | Программирование (10 голосов, средний: 4.60 из 5)
- •Быстрое размытие по Гауссу
1.5. Выводы
1) Задача прогнозирования временных рядов имеет высокую актуальность для многих предметных областей и является неотъемлемой частью повседневной работы многих компаний.
2) Установлено, что к настоящему времени разработано множество моделей для решения задачи прогнозирования временного ряда, среди которых наибольшую применимость имеют авторегрессионные и нейросетевые модели.
3) Выявлены достоинства и недостатки рассмотренных моделей. Установлено, что существенным недостатком авторегрессионных моделей является большое число свободных параметров, требующих идентификации; недостатками нейросетевых моделей является ее непрозрачность моделирования и сложность обучения сети.
4) Определено, что наиболее перспективным направлением развития моделей прогнозирования с целью повышения точности является создание комбинированных моделей, выполняющих на первом этапе кластеризацию, а затем прогнозирование временного ряда внутри установленного кластера.
Тема 15. Регрессия
Регрессия, это инструмент статистики, на субъективность которого информатики могут сваливать все свои ошибки.
Фарид Бадрутдинов. Татарин, Уральский геофизик.
Электронные мозги могут ошибаться гораздо точнее.
Габриэль Лауб. Немец, афорист.
Содержание
Введение.
1. Постановка задачи регрессии.
2. Линейная регрессия. Общий принцип. Реализация в Mathcad.
3. Полиномиальная регрессия. Одномерная регрессия. Зональная регрессия.
4. Нелинейная регрессия. Линейное суммирование произвольных функций. Регрессия общего типа. Типовые функции регрессии Mathcad.
5. Сглаживание данных.
6. Предсказание зависимостей.
Введение
Аппроксимация данных с учетом их статистических параметров относится к задачам регрессии. Они обычно возникают при обработке экспериментальных данных, полученных в результате измерений процессов или физических явлений, статистических по своей природе (как, например, измерения в радиометрии и ядерной геофизике), или на высоком уровне помех (шумов). Задачей регрессионного анализа является подбор математических формул, наилучшим образом описывающих экспериментальные данные.
Термин "регрессия" появился при исследовании соотношения роста родителей и их детей, в которых было установлено, что рост "регрессирует" к среднему, т.е. высокие родители имеют более низких детей, а низкие родители – более высоких.
В качестве основной математической системы для примеров будем использовать систему Mathcad.
15.1. Постановка задачи регрессии
Математическая постановка задачи регрессии заключается в следующем. Зависимость величины (числового значения) определенного свойства случайного процесса или физического явления Y от другого переменного свойства или параметра Х, которое в общем случае также может относиться к случайной величине, зарегистрирована на множестве точек xk множеством значений yk, при этом в каждой точке зарегистрированные значения yk и xk отображают действительные значения Y(xk) со случайной погрешностью k, распределенной, как правило, по нормальному закону. По совокупности значений yk требуется подобрать такую функцию f(xk, a0, a1, … , an), которой зависимость Y(x) отображалась бы с минимальной погрешностью. Отсюда следует условие приближения:
yk = f(xk, a0, a1, … , an) + k.
Функцию f(xk, a0, a1, … , an) называют регрессией величины y на величину х. Регрессионный анализ предусматривает задание вида функции f(xk, a0, a1, … , an) и определение численных значений ее параметров a0, a1, … , an, обеспечивающих наименьшую погрешность приближения к множеству значений yk. Как правило, при регрессионном анализе погрешность приближения вычисляется методом наименьших квадратов (МНК). Для этого выполняется минимизация функции квадратов остаточных ошибок:
a0,
a1, … , an)
=
[f(xk,
a0, a1, … , an)
- yk]2.
Для определения параметров a0, a1, … , an функция остаточных ошибок дифференцируется по всем параметрам, полученные уравнения частных производных приравниваются нулю и решаются в совокупности относительно всех значений параметров. Виды регрессии обычно называются по типу аппроксимирующих функций: полиномиальная, экспоненциальная, логарифмическая и т.п.