
- •Раздел I. Линейные системы. Цифровые фильтры
- •Системы хранения медиаданных
- •Скорости и интерфейсы
- •Расчет аналогового нормированного фильтра нижних частот Баттерворта
- •Df 1. Введение в адаптивные фильтры
- •1.1. Адаптивная обработка данных
- •1.1.1 Адаптивные фильтры
- •1.1.2 Принцип действия адаптивного фильтра
- •1.4 Адаптивные фильтры
- •1.4.1 Адаптивные фильтры с бесконечной импульсной характеристикой
- •1.4.2 Адаптивные фильтры с конечной импульсной характеристикой
- •1.4.3 Адаптивные фильтры, основанные на методах преобразования сигнала
- •3 Адаптивные алгоритмы для фильтров с конечной импульсной характеристикой
- •3.1. Введение
- •4. Адаптивные алгоритмы для фильтров с бесконечной импульсной характеристикой
- •4.1. Введение
- •4.1.1 Общий обзор
- •2.3 Оптимальное рекурсивное калмановское оценивание
- •2.3.1 Скалярный фильтр Калмана
- •2.3.2. Вывод коэффициента фильтра Калмана
- •2.4. Векторный фильтр Калмана
- •2.4.1. Векторный фильтр Калмана в качестве устройства коррекции канала
- •Требования к вейвлетам
- •Свойства вейвлет преобразования
- •Непрерывное вейвлет-преобразование
- •Дискретное вейвлет-преобразование
- •Графическое представление
- •Применение
- •Примечания
- •Чирплет
- •Аналогия с другими преобразованиями
- •Чирплеты и чирплет-преобразование
- •Приложения
- •Систематика чирплет-преобразования
- •Df Глава 1. Постановка задачи и обзор моделей прогнозирования временных рядов
- •1.1. Содержательная постановка задачи
- •1.2. Формальная постановка задачи
- •1.3. Обзор моделей прогнозирования
- •1.3.1. Регрессионные модели
- •1.3.2. Авторегрессионные модели
- •1.3.3. Модели экспоненциального сглаживания
- •1.3.4. Нейросетевые модели
- •1.3.5. Модели на базе цепей Маркова
- •1.3.6. Модели на базе классификационно-регрессионных деревьев
- •1.1.1. Другие модели и методы прогнозирования
- •1.4. Сравнение моделей прогнозирования
- •1.4.1. Достоинства и недостатки моделей
- •1.4.2. Комбинированные модели
- •1.5. Выводы
- •Тема 15. Регрессия
- •Введение
- •15.1. Постановка задачи регрессии
- •15.2. Линейная регрессия [25]
- •15.3. Полиномиальная регрессия [25]
- •15.4. Нелинейная регрессия [25]
- •15.5. Сглаживание данных [25]
- •15.6. Предсказание зависимостей [25]
- •Df Линейная регрессия
- •8. Регрессия
- •8.1. Детерминированные и статистические зависимости
- •8.2. Корреляция и коэффициент корреляции
- •8.3. Уравнения регрессии
- •8.3.1. Линейная регрессия
- •8.3.2. Полиномиальная регрессия
- •8.3.3. Нелинейная регрессия
- •8.4. Сглаживание данных
- •8.5. Предсказание зависимостей
- •Параболическая и экспоненциальная регрессия.
- •Аппроксимация. Параболическая регрессия
- •Интерполяция
- •[Править]Определения
- •[Править]Пример
- •[Править]Способы интерполяции [править]Интерполяция методом ближайшего соседа
- •[Править]Интерполяция многочленами
- •[Править]Определение и история
- •[Править]Классификация сплайнов
- •Интерполяционный сплайн
- •1.4. Линейные операторы
- •Фильтр Гаусса
- •Фильтр Лапласа
- •Компьтерное зрение. Оператор Собеля Среда, Февраль 10th, 2010 | Программирование (10 голосов, средний: 4.60 из 5)
- •Быстрое размытие по Гауссу
1.1.1 Адаптивные фильтры
В этой книге рассматриваются теория, расчет и применение адаптивных фильтров. Первый адаптивный, или самообучающийся, фильтр часто приписывают Лаки [201] из-за разработанного им в 1966 г. обнуляющего корректирующего фильтра, компенсирующего искажения в системах передачи данных. Однако более ранняя работа по адаптивному распознаванию формы сигнала была выполнена в 1960 г. Яковацом и др. [159]. В 1961 г. Глезер [120] в США провел теоретическое исследование по адаптивным фильтрам, а Габор и др., [110] в том же году, в Великобритании, воспользовались аналоговым лентопротяжным механизмом для подстройки весов нелинейного «обучающегося» фильтра. Мы можем считать, что название «обучающийся» относится к адаптивному процессору.
Яндекс.ДиректВсе
объявленияОптимизация
оплаты. Оклады Премии Семинар
26-27.02 в Москве, 11-12.03 в Киеве. Первым
лицам скидки до 50%. lityagin.ru
Решение
задач по механике он-лайн
Более 1000 преподавателей он-лайн! Решение
задач по механике! liveexpert.ru
Большинство ранних работ по адаптивным фильтрам выполнено в ходе независимых исследований различными научно-исследовательскими организациями. Заслуживающие упоминания исследования проводились в Высшей технической школе г. Карлсруэ в ФРГ и в Станфордском университете, где в 1959 г. было начато создание адаптивных систем распознавания образов. В ходе совместной работы этих организаций в 1964 г. была произведена сравнительная оценка каждого метода [296], что впоследствии привело к разработке наиболее широко используемого алгоритма для подстройки весовых коэффициентов процессора. Дальнейшая работа в данном направлении одновременно проводилась в Институте автоматики и телемеханики в Москве. В середине 60-х годов прекрасный сводный обзор по адаптивным фильтрам и предварительные рекомендации по их применению для адаптивного или автоматического выравнивания был представлен в работе [274]. Позднее были подготовлены несложные обзорные статьи по гашению отраженного сигнала в телефонии [328] и адаптивному выравниванию [264].
Для получения оптимального решения существует много методов подстройки значений весовых коэффициентов фильтра. Применялись методы случайных возмущений [341], которые изменяли весовые коэффициенты фильтра; далее анализировался выходной сигнал для того, чтобы установить, приближает ли его случайное возмущение к искомому решению или отдаляет от него. В гл. 3 подробно рассматривается разработка адаптивного алгоритма метода наименьших квадратов (МНК), который использовался в работе Станфордского университета, по распознаванию образов и впервые был официально описан в 1967 г. Уидроу и др. [336] для адаптивных антенных решеток, а в 1971 г. для адаптивных фильтров [337]. В настоящее время этот алгоритм широко применяется для расчета весовых коэффициентов адаптивных фильтров, поскольку в нем используются градиентные методы, которые значительно эффективнее, чем другие, обеспечивают сходимость к оптимальному решению. Можно показать, что градиентный метод наименьших квадратов очень схож с методом максимизации отношения сигнал – шум, который параллельно разрабатывал Эпплбаум [17] c целью применения в тех случаях, когда необходимо получить оптимальные весовые коэффициенты адаптивных антенных решеток. Было также показано, что обнуляющий корректирующий фильтр Лаки является упрощением более общего градиентного метода наименьших квадратов.