
- •1. Типы сигналов
- •2. Задачи анализа и синтеза сигналов.
- •3. Представление сигнала с помощью ортогональных функций
- •5. Комплексный ряд Фурье. Преобразование Фурье.
- •6. Частота Найквиста. Теорема Найквиста-Шеннона.
- •7. Определение дискретного преобразования Фурье (дпф) и обратного дискретного преобразования Фурье (обпф).
- •Дискретное преобразование фурье (дпф)
- •8. Свойства дпф (теорема линейности, теорема комплексной сопряженности, теорема сдвига, теорема сверки, теорема корреляции)
- •13. Алгоритм быстрого преобразования Фурье (бпф) с децимацией во временной области.
- •14. Алгоритм быстрого преобразования Фурье (бпф) с децимацией во частоте.
- •15.Обратное быстрое преобразование Фурье
- •Обратное преобразование Фурье
- •16. Вычислительные преимущества бпф.
- •17. Схемы вычисления свертки и корреляции на основе бпф.
- •18. Двумерное дпф и бпф
- •19. Анализ линейной системы (связь между входным и выходным сигналами, импульсный отклик, представление системы в частотной области).
- •20. Класс несинусоидальных ортогональных функций (функции Радемахера, функции Хаара, функции Уолша).
- •21. Код Грея
- •22. Преобразование Уолша.
- •23. Преобразование Уолша-Адамара (Адамара).
- •1. Пиксельное представление изображений. Основные виды изображений: бинарные, полутоновые и цветные
- •2. Основные преобразования изображений.
- •3. Основные взаимосвязи между пикселями изображения. Метрические свойства для изображения.
- •4. Метод пространственной области с применением масок. Операторы Собеля, Робертса, Превитта для обработки изображений.
- •5. Сегментация изображений посредством выделения границ областей
- •6. Основы фильтрации в частотной области. Двумерное дпф.
- •7. Задача распознавания образов. Выбор признаков.
- •8. Виды разделяющих функций. Классификатор по минимальному расстоянию
- •9. Задача двухклассового распознавания
- •10. Классификатор для распознавания 3-х и k классов образов по критерию наименьшего среднеквадратического расстояния
- •11. Метод отображения по алгоритму наименьших квадратов
- •12. Классификация нейросетевых систем
- •13. Виды пороговых функций в нейросети
- •14. Модель нейронной сети. Обучающий алгоритм для персептрона
- •15. Многослойный персептрон с обратным распространением ошибки
12. Классификация нейросетевых систем
Искусственная нейронная сеть (ИНС) – это существенно параллельно распределенный процессор, который обладает способностью к сохранению и репрезентации опытного знания. Она сходна с мозгом в двух аспектах:
знание приобретается сетью в процессе обучения;
для сохранения знания используются силы межнейронных соединений, называемые также синаптическими соединениями.
Для лучшего понимания данного вопроса приведем одну из возможных классификаций НС в зависимости от различных характеристик [2].
По типу входной информации:
аналоговые НС (используют информацию в форме действительных чисел);
двоичные НС (оперируют с информацией, представленной в двоичном виде).
По характеру обучения:
с учителем (известно входное пространство решений НС);
без учителя (НС формирует выходное пространство решений только на основе входных воздействий – самоорганизующиеся сети).
По характеру настройки синапсов:
сети с фиксированными связями (весовые коэффициенты НС выбираются сразу, исходя из условия задачи);
сети с динамическими связями (в процессе обучения происходит настройка синаптических связей).
По методу обучения:
НС с алгоритмом обратного распространения ошибки;
НС с конкурентным обучением;
НС, использующие правило Хебба;
НС с гибридным обучением, в которых используются различные алгоритмы обучения.
По характеру связей:
НС с прямыми связями;
НС с обратным распространением информации.
По архитектуре и обучению:
персептронные сети с прямыми связями;
самоорганизующиеся НС (НС Кохонена, НС адаптивного резонанса, рециркуляционные НС);
НС с обратными связями (НС Хопфилда, НС Хэмминга, двунаправленная ассоциативная память, рекуррентные НС);
гибридные НС (НС встречного распространения, НС с радиально-базисной функцией активации).
13. Виды пороговых функций в нейросети
Порог, если он используется, является характеристикой, задающей начальный уровень активности (при нулевом входе) и помогающей настроить нейрон на пороговую функцию. Изменение порога эквивалентно сдвигу пороговой функции по оси абсцисс. Ряд авторов [2] вводят дополнительный вход нейрона x0, всегда равный 1, и обозначают порог как его вес w0. Это позволяет упростить выражение (1) и математическую запись некоторых алгоритмов обучения. Однако на практике при программной реализации это не приводит к экономии времени и способствует ошибкам, кроме этого, порог может настраиваться иначе, чем весовой вектор.
Функция активации используется для ограничения выхода нейрона в заданном диапазоне и для нелинейного преобразования взвешенной суммы. Последнее позволяет нейронному классификатору аппроксимировать любую нелинейную границу между классами в пространстве образов. Функция активации выбирается для конкретной задачи и является неизменной характеристикой отдельного нейрона.
Могут использоваться следующие функции активации и их гибриды:
1) линейная функция y = Ax;
2)
пороговая функция
;
3)
биполярная пороговая функция
;
4) сигмоидная функция
;
(2)
5)
биполярная сигмоидная функция (рис.
В.3)
;
(3)
6) гиперболический тангенс (рис. В.4)
.
(4)
Рис. В.4. Гиперболический тангенс