- •Введение
- •1. Обнаружение сигналов
- •2. Оптимальное байесовское
- •3. Энергетическая скрытность при
- •4. Энергетическая скрытность при
- •5. Сигналы с программной
- •6. Ранговый алгоритм
- •7. Ранговый алгоритм обнаружения
- •8. Классификационная скрытность
- •9. Защищенность радиолиний
- •11. Задания для самостоятельной
- •Заключение
- •394026 Воронеж, Московский просп., 14
8. Классификационная скрытность
СИГНАЛОВ
8.1 Задача классификации сигналов
Различение случайных сигналов чаще всего производится по какому-либо параметру (центральной частоте, внутренней структуре, среднему значению, дисперсии и т.д.). Если явные простые признаки различия сигналов отсутствуют или не известны, то можно проводить классификацию наблюдаемых случайных процессов.
В задаче классификации все множество возможных реализаций случайного процесса разбивается на классы (группы), для которых выбраны характеристики случайных процессов - типичных представителей классов. Характеристики наблюдаемого случайного процесса сравниваются с характеристиками типичных представителей – определяются «расстояния» между ними. В результате принимается решение о принадлежности наблюдаемого процесса тому классу, для которого полученное «расстояние» минимально.
Для решения задачи классификации прежде всего необходимо выбрать модель анализируемых случайных процессов и метрику их сравнения.
8.2. Марковская модель случайного процесса
В качестве достаточно универсальной
модели случайного квантованного по
времени и уровню процесса
,
- моменты квантования, наиболее
целесообразно использовать простую
цепь Маркова [1]. Марковский процесс
может принимать одно из М возможных
значений от
до
,
соответствующих уровням квантования
.
Значения
меняются с ростом номера отсчета
,
причем переход от одного
112
состояния к другому является случайным
и последующая величина
зависит только от предыдущей
величины
для всех
,
как показано на рис. 8.1.
Рис. 8.1
Моделируемый процесс описывается
квадратной матрицей переходных
вероятностей
от значения
(номер строки) к значению
(номер столбца),
=
,
(8.1)
размера ММ, и
матрицей-столбцом
вероятностей начальных значений процесса
в момент времени
,
.
(8.2)
113
Для матрицы (8.1) для всех выполняются условия
.
(8.3)
Классы сигналов проявляются в различных
статистических свойствах наблюдаемого
марковского процесса
и каждому из них должны соответствовать
свои отличающиеся друг от друга матрицы
и
,
-
номер класса. Они полностью определяют
свойства анализируемых классов и
фактически представляют собой «отпечатки»
классифицируемых состояний.
В качестве примера рассмотрим сигнал
с четырьмя возможными значениями
,
матрица переходных вероятностей которого
имеет вид
.
(8.4)
В этом случае при случайном выборе одного из начальных значений следующее значение может быть только тем же самым (с вероятностью 1). Таким образом матрица (8.3) порождает постоянный сигнал со случайным начальным значением.
Для матрицы переходных вероятностей вида
.
(8.5)
114
при случайном начальном значении
следующее значение детерминировано и
равно
.
При этом в дальнейшем сигнал представляет
собой пилообразную функцию времени
(получите этот результат самостоятельно,
постройте графики). Пример программы
расчета реализации сигнала показан на
рис. 8.2.
Рис. 8.2
На рис. 8.3 показана программа расчета
реализации марковского случайного
процесса при
.
Как видно, в этом случае и форма сигнала
становится случайной. Разработайте
программы для произвольных значений
числа
градаций случайного процесса.
115
Рис. 8.3
116
8.3. Алгоритм классификации
Наблюдаемый марковский случайный
процесс (сигнал)
может принадлежать одному из
классов
.
В каждом k-ом классе
дискретизированный процесс описывается
матрицей переходных вероятностей вида
=
(8.6)
Пусть получена выборка значений
процесса
,
содержащая
многоуровневых отсчетов. Тогда
апостериорная вероятность принадлежности
сигнала к классу
определяется выражением
,
(8.7)
где
-
априорная вероятность появления сигнала
из k-го класса,
-
вероятность появления заданной выборки
отсчетов сигнала при условии его
принадлежности классу
,
а
-
безусловная вероятность выборки.
Условная вероятность выборки
равна произведению вероятности
начальных значений
на вероятность перехода от
к
,
затем на вероятность перехода от
к
и так далее. Процесс умножения
заканчивается
117
на вероятности перехода от
к
.
Таким образом, получим (проделайте
расчет самостоятельно)
,
(8.8)
где
,
(8.9)
-
вероятность начального значения
выборки в k-ом классе,
через
обозначено общее число переходов
процесса из значения
в значение
на следующем шаге для всех значений
.
Очевидно, что
.
(8.10)
Как видно из (8.8), вероятность состояний
определяется значениями
,
k=1,...,L,
которые в свою очередь зависят от выборки
отсчетов случайного процесса. Величины
будем называть решающими статистиками,
так как в них содержится вся необходимая
для принятия решения информация о
наблюдаемом процессе.
Процедура классификации заключается
в следующем. Анализатор по поступающим
выборочным отсчетам определяет числа
переходов процесса от одного значения
к другому, которые накапливаются от
начальных значений lij
= 0 по мере появления новых отсчетов.
118
Затем вычисляются решающие статистики
(8.9) для всех классов
,
выбирается минимальное значение
и минимальное из оставшихся значений
.
Разность
сравнивается с порогом
,
(8.11)
который определяется выражением
,
(8.12)
а при
из (8.12) следует
G =
.
(8.13)
Доверительная вероятность
- это требуемый уровень условной
вероятности выбранного класса для
заданной выборки отсчетов сигнала. Она
характеризует вероятность правильности
принятого решения. Выражение (8.12) для
порога с учетом (8.8) вытекает из равенства
.
(8.14)
Если неравенство (8.11) не выполняется, то принимается очередной отсчет и вновь вычисляются решающие статистики. Как только оно выполнится, анализ прекращается и выносится окончательное решение Vk0 с достоверностью не меньше Pдов.
119
Решающие статистики
(8.9) определяют «расстояния» наблюдаемой
реализации от соответствующих классов.
Ее можно представить как точку в L-мерном
гиперпространстве, координатами которой
являются значения
.
На рис. 8.4 в качестве примера показаны
области решающих статистик, соответствующие
возможным различным решениям при L=2.
Рис. 8.4
Порог G определяет зону
неопределенности (ограниченную
пунктирными линиями на рис. 8.4), внутри
которой решения не принимаются ввиду
низкой достоверности. Левее расположена
область, в которой принимается решение
о принадлежности наблюдаемой реализации
к первому классу, а правее – ко второму.
Жирной линией показано движение точки,
отображающей реализацию после поступления
отсчетов с номерами 2, 3 и так далее (после
шестого отсчета принимается решение
).
В рамках предлагаемой методики классификации можно использовать сложные модели классов, определяемые несколькими марковскими моделями. В этом случае решающие
120
статистики целесообразно записать в
виде двумерного массива
,
где
- номер класса, а
- номер модели внутри класса. Правило
формирования решения предполагает
определение минимального значения
и следующего за ним
при
,
а затем использование неравенства
(8.11).
8.4. Обучение алгоритма классификации
Модели классов в виде матриц переходных вероятностей могут формироваться их теоретических (физических и математических) представлений о формировании классифицируемых сигналов. Достоверность классификации существенно зависит от точности используемых моделей.
На практике целесообразней использовать экспериментальные модели, полученные в результате обучения процедуры классификации. Обучение в технических системах может проводиться в режимах обучения с учителем и самообучения.
При обучении с учителем в систему
классификации вводятся случайные
сигналы с известными классами, по
каторым формируются оценки матриц
переходных вероятностей
(8.1) и вероятностей начальных значений
(8.2) для каждого из L классов.
Для этого в реализациях
-ого
класса определяется число переходов
соседних отсчетов от i-ого
значения к j-ому, тогда
,
(8.15)
,
(3.24)
121
где – общее число отсчетов. Матрицы и являются полным описанием (образом) k-ого класса. Возможно использование нескольких образов для описания классов сложной структуры в метрике решающей статистики.
В режиме самообучения (обучения без учителя) используются неклассифицированные реализации случайных процессов. При этом согласно (8.15) и (8.16) оцениваются характеристики моделей для каждой реализации, и затем модели группируются по близости друг к другу в метрике решающей статистики (8.9). Проектирование системы классификации в режиме самообучения является достаточно сложной и неоднозначно решаемой задачей.
8.5. Результаты моделирования алгоритмов обучения
и классификации
Моделирование проведено с помощью
пакета MathCAD 2001 для нормальных
марковских процессов с различными
дисперсиями
и коэффициентами корреляции
при заданных значениях объема обучающей
реализации
и доверительной вероятности
(напишите аналогичную программу
самостоятельно). Число циклов
моделирования выбиралось от 10000 до
50000.
В программе формируются две обучающие
реализации квазислучайных процессов
с различными характеристиками длиной
отсчетов, по которым в соответствии с
(8.15), (8.16) определяются две марковские
модели. Затем формируются
реализаций одного из процессов, и в
соответствии с разработанной процедурой
определяется их принадлежность к каждому
из классов. После этого моделирование
циклически повторяется для набора
статистического материала.
На рис. 8.5 показаны зависимости вероятности ошибки от объема обучающей выборки при классификации про-
122
цессов по дисперсии для двух классов,
первый характеризуется дисперсией
и коэффициентом корреляции
,
а второй -
и
.
На рис. 8.6 представлены величины среднего
числа отсчетов
,
необходимых для принятия решения с
требуемой достоверностью.
Рис. 8.5. Рис. 8.6
Как видно, при небольшом объеме обучающей
выборки вероятность ошибки весьма
высока (алгоритм «плохо обучен»). При
накоплении информации о разделяемых
классах она стремится к заданной величине
.
Для обеспечения большей достоверности
результата необходимо увеличивать
.
Среднее число отсчетов сравнительно
невелико, то есть алгоритм классификации
работает достаточно быстро.
На рис. 8.7 представлена зависимость
вероятности ошибки от объема обучающей
выборки при классификации по коэффициенту
корреляции. Первый класс имеет
и
,
а второй -
и
.
На рис. 8.8 показаны аналогичные зависимости
при различении близких классов по
дисперсии, первый характеризуется
и
,
а второй -
и
.
123
Рис. 8.7 Рис. 8.8
Результаты моделирования свидетельствуют, что процедура классификации уверенно определяет принадлежность наблюдаемой реализации к соответствующему семейству при различных условиях определения различий классов (параметрическое описание сигналов просто не требуется). Чем ближе друг к другу свойства классов, тем больший объем обучающей выборки необходим для их различения с заданной достоверностью.
8.6. Классификационная скрытность сигналов
Для выявления принадлежности случайного
сигнала одному из выбранных классов с
заданной достоверностью
необходимо затратить определенное
среднее число
отсчетов.
Классификационная скрытность оценивается величиной или длительностью реализации в единицах времени. Так как алгоритм классификации оптимален по критерию максимальной апостериорной вероятности, то при его использовании определяется потенциальная скрытность случайного сигнала.
124
Классификационная скрытность повышается с ростом требуемой достоверности и при сближении статистических характеристик классов. Существенное влияние на характеристики алгоритма классификации оказывает процедура обучения и, в частности, продолжительность обучающих выборок. При обучении с учителем необходимо обеспечивать достоверную принадлежность обучающих выборок соответствующему классу.
8.7. Применение алгоритмов классификации
случайных процессов
Задача классификации случайных процессов возникает в самых различных областях человеческой деятельности.
В медицинской диагностике широко используются решении и принадлежности наблюдаемых процессов (кардиограмм, энцефалограмм и т.д.) соответствующему классу - состоянию пациента (норма, заболевание первой или второй степени, тяжелое состояние).
В технике необходимо по сигналам датчиков контролировать состояние устройства (авиационного или автомобильного двигателя, турбины на электростанции), в том числе и с целью прогнозирования возможной неисправности (классами могут быть состояния угрозы неисправности).
В военной технике необходимо определять тип выявляемого объекта (автомобиль, танк, колонна солдат, или тип пролетающего самолета) по наблюдаемым акустическим или электромагнитным случайным сигналам.
125
