Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лекции Максимова.doc
Скачиваний:
10
Добавлен:
01.04.2025
Размер:
20.86 Mб
Скачать

Информационное описание поиска и распознавания объектов

Информационная работоспособность системы

Формирование алгоритмов управления

10.2. Современная технология содержательного поиска в электронных коллекциях изображений

Проблема обеспечения доступа к коллекциям изображений

Визуальные примитивы и механизм поиска по образцу

Методы индексирования и поиска изображений

Методы индексирования и поиска видеоданных

Распознавание объектов на изображении

10.3. Ссылки и литература для дальнейшего изучения

10.4. Задание

10.1. Управление процессами обработки и анализа изображений

Структура алгоритмов обработки и анализа изображений зависит от множества факторов: решаемых задач, объемов и состава априорной информации, условий наблюдения, имеющихся аппаратных средств и пр.

Выбор оптимальной структуры алгоритмов является сложной задачей, которая решается на основе сравнительной оценки альтернативных вариантов.

Обычно в качестве основных критериев (показателей) эффективности при оценке алгоритмов, реализуемых в вычислительной системе СТЗ, выбирается точность (или достоверность) решения и/или затраты машинного времени.

Во многих случаях, в частности, при стабильных условиях наблюдения, высокой контрастности объектов наблюдения и фона наиболее выгодными могут оказаться простые алгоритмы, использующие некоторый набор процедур, выполняемых в строго определенном порядке.

Более сложными являются адаптивные (самонастраивающиеся) алгоритмы обработки информации. В этих алгоритмах выбор реализуемых (рабочих) процедур производится в зависимости от выполнения условий, определяемых в процессе вычислений. Адаптивные алгоритмы могут функционировать в сложных условиях наблюдения, приспосабливаться к оперативному изменению решаемых задач, изменению состава средств наблюдения и т.д.

Комплексный алгоритм обработки и анализа изображений

Адаптивные алгоритмы должны иметь в своем составе блоки (модули) управления вычислительным процессом.

На рис. 10.1. представлена схема адаптивного алгоритма управления процессом распознавания (планирования эксперимента).

Пусть объект w поступает на вход системы распознавания. Для принятия решения о принадлежности объекта наблюдения к определенному классу проводится эксперимент a1, возможными исходами которого являются, например, и . Исходы анализируются в блоке анализа результатов эксперимента (БАРЭ).

Если исход эксперимента , то принимается окончательное решение . При исходе принимается решение о продолжении эксперимента.

Возможными исходами нового эксперимента могут быть: , , .

При получении исхода или принимаются окончательные решения, соответственно или .

Если исходом является , то принимается решение о продолжении эксперимента.

Рис. 10.1.

Данный алгоритм позволяет корректировать план проведения экспериментов в зависимости от результатов предыдущих.

Аналогичный подход можно использовать при формировании алгоритмов обработки и анализа изображений, работающих в сложных и изменяемых условиях наблюдения.

На рис. 10.2 представлена блок-схема комплексного алгоритма обработки и анализа изображений.

Естественно, что в зависимости от решаемых задач структура комплексного алгоритма может меняться.

При выполнении каждого этапа полученная информация поступает в блок управления, в котором формируется план выполнения последующих процедур. Например, для успешной реализации процесса поиска может потребоваться проведение нескольких циклов улучшения изображения и т.д.

Рис. 10.2.

Кроме блока управления, в памяти вычислительной системы хранится база данных (БД), содержащая необходимые данные и различные процедуры обработки информации. В соответствии с принимаемыми решениями из исходной БД формируется рабочая БД, непосредственно используемая при обработке и анализе изображений.

Реализовать подобный комплексный алгоритм достаточно трудно. Одной из причин является сложность формализации и вычислений множества частных критериев эффективности для различных этапов вычислений, на основе которых принимаются решения о дальнейших действиях.

В некоторых случаях решением данной проблемы является формирование моделей описания процессов и управление этими процессами на основе методов теории информации.

К основным преимуществам данного подхода следует отнести:

– возможность оценки состояния процесса с множеством исходов;

– универсальность описания различных процессов, в том числе одно- и многоэтапных;

– возможность оценки объемов информации, требуемых для реализации процесса наблюдения, вне зависимости от конкретных исходов процесса.

Информационные модели процессов

В зависимости от решаемых задач используются различные направления в теории информации:

– семантическая теория, рассматривающая дискретное строение массивов информации и их измерение, путем подсчета информационных элементов или комбинаторным методом, предполагающие простейшее кодирование массивов информации;

– семантическая теория, основанная на оценке целесообразности, ценности, полезности или существенности информации;

– статистическая теория, оперирующая понятием энтропии как меры неопределенности и учитывающая вероятность появления события, т.е. информативность сообщений.

Исследование процессов наблюдения в рамках поставленных задач будет проводиться на основе статистической теории информации, позволяющей, в частности, представить работу системы наблюдения и управления в понятиях концепции выбора.

Основными понятиями теории информации являются: информация, энтропия и пропускная способность системы.

За основу принята мера информации, предложенная Шенноном, которая оценивается по формуле

I = I(X | Y) = H(X) – H(X | Y), (10.1)

где I(Х | Y) – количество информации, содержащееся в сообщении Y о событии; Н(Х) – энтропия события Х; H(Х | Y) – условная энтропия события Х при получении сообщения Y.

Априорная энтропия Н(Х) является мерой неопределенности некоторого события Х до получения сообщения Y. Энтропии Н(Х | Y) соответствует неопределенности события после получения сообщения Y и является апостериорной энтропией.

Для информационного описания непрерывных процессов используется формула

, (10.2)

где р(х) – функция плотности распределения случайной величины, ex – интервал дискретизации (например, определяется исходя из требований к точности системы).

Для процессов с конечным количеством исходов энтропия равна

, (10.3)

где Рi – вероятность i-го события (исхода) из М возможных.

При равновероятном распределении исходов энтропия максимальна и равна

, (10.4)

что соответствует мере информации Хартли.

Энтропии при нормальном законе распределения равна

, (10.5)

где sx – среднеквадратическое отклонение случайной величины.

Энтропия Н(Х) является безусловной энтропией источника и характеризует среднее количество информации на символ, выдаваемое источником.

Имеют место следующие соотношения:

H(X, Y) = H(X) + H(Y | X)= H(Y) + H(X | Y); (10.6)

Если в системе наблюдения нет потерь и искажений, то

H(X | Y) = 0, H(Y | X) = 0. (10.7)

Энтропия Н(Х), т.е. неопределенность процесса (события), снимается при получении полезной информации I. Если объем получаемой информации больше энтропии, то возникает избыточность информации (сообщения).

Информационная пропускная способность обозначает скорость переработки информации I за время Т

. (10.8)

Пусть исследуется дискретный процесс и источник сообщений имеет энтропию, равную Ни = Н(Х), которая может быть рассчитана по формуле (10.3). Это означает, что максимальное количество принимаемой за один отсчет информации равно

Информативностью источника сообщений является Ни.

В соответствии с теоремой Котельникова, интервалы между отсчетами равны где F – максимальная частота временного спектра сигнала. Следовательно, максимальный объем информации, передаваемый источником за время Т, определяется по известной формуле

. (10.9)

При формировании моделей процессов, протекающих в системах наблюдения, необходимо учитывать переменность информативности источника (в пространстве и времени) и влияние дестабилизирующих факторов, которые могут случайным образом изменять энтропию процессов и объемы принимаемой полезной информации.

Для описания подобных процессов удобно использовать следующие понятия:

– начальная энтропия процесса (события) Н­0, характеризующая начальную неопределенность процесса или начальный объем решаемых задач. В общем случае Н0 вычисляется по формуле (10.2). Пусть, например, в начале процесса распознавания М объектов предполагается равновероятность их присутствия, тогда и энтропия процесса максимальна. Если вероятность присутствия m-го объекта Р(m) = 1, то исход распознавания известен, а энтропия процесса Н0 = 0;

– текущая энтропии процесса H(t), характеризующая неопределенность процесса в момент времени t;

– конечная энтропия процесса Нк, характеризующая энтропию в момент окончания процесса. Так, при определении координат объекта Нк характеризует точность оценки координат, например,

,

где sx – среднеквадратическая ошибка определения координаты х;

– возмущающая энтропия Нв(t), увеличивающая энтропию процесса.

Исследуемый непрерывный динамический процесс характеризуется текущей энтропией Н (t).

В соответствии с (10.1) и (10.8) получим

, (10.10)

где – скорость получения и переработки полезной информации; – скорость поступления возмущающей информации; t – время.

Начальная энтропия Н0 соответствует априорной энтропии Н(X) в (10.1), а текущая Н(t) – апостериорной энтропии Н(Х|У).

При дискретном процессе для (k+1)-го такта формула (10.10) примет вид

, (10.11)

или

, (10.12)

где Сk, Сkв – пропускные способности системы на k-м такте по полезной информации и возмущениям соответственно; Dt – длительность такта.

В формулах (10.11), (10.12) происходит оценка только энтропии состояния процесса, уменьшение которой реализуется поступлением полезной информации.

Общее максимальное количество принимаемой информации Y за один отсчет равно

I(Y) = H(Y),

полезной из которой является

I=H(Y) – H(Y|X).

Следовательно, понятия информативность источника и информативность сообщения не эквивалентны, так как информативность источника характеризует максимальную энтропию, а информативность сообщения – энтропию полезной информации, содержащейся в сообщении.

В свою очередь текущая энтропия сообщений Н(Y, t) также может описываться формулами, аналогичными (10.10)... (10.12).

При исследовании совместной энтропии состояния процесса и сообщений H(X,Y) используется формула (10.6).

Далее рассмотрены энтропии состояний процессов.

Необходимо учитывать, что энтропия любого процесса не может быть величиной отрицательной, и при ограниченном количестве исходов М максимальное значение текущей энтропии согласно (10.4) равно Hmax= log2(M).

Формулы (10.11), (10.12) позволяют оценить текущую энтропию, которая является универсальной и обобщенной характеристикой любого исследуемого процесса наблюдения обнаружения, распознавания или измерения координат объекта.

На рис. 10.3 представлены варианты процессов изменения энтропии в процессе наблюдения.

Рис. 10.3

Энтропии процесса 1 характеризуется условием Cв > C, т.е. скорость поступления возмущающей информации превышает скорость поступления полезной информации. Процесс соответствует постоянному ухудшению качества наблюдения, например, в случае увеличения расстояния между системой наблюдения (СН) и объектом поиска. Конечная энтропии больше начальной Hк > H.

Процесс 2 соответствует равенству скоростей, поступающих в СН полезной и возмущающей информацией. Энтропия процесса постоянна, как например, в условиях слежения (сопровождения целей).

В процессе 3 С > Св и начальная энтропии больше конечной H0 > Hк. Процесс характерен для поиска и распознавания объектов.

Общий исследуемый процесс Q0 может быть многоэтапным, включающим различные частные процессы q = 1, 2, ... ,Q, например, обнаружение, распознавание, слежение за целями. При этом каждый частный процесс может также включать различные этапы.

Совместная энтропии подобных процессов равна

Н (Q0, t) = Н (1, t) + Н (2, t | 1) + ... + Н (q, t | 1,2,…,q - 1) + ... + Н (Q, t|1,2,…,Q - 1),

где Н (q, t | 1,2,…,q - 1) – энтропии выполнения q-го этапа, при условии выполнения 1, 2, ..., (q – 1)-го этапов из Q.

Если многоэтапный процесс является последовательным, то в большинстве случаев можно считать, что энтропия q-го этапа

, (10.13)

что в значительной степени упрощает информационную модель процесса.

Информационное описание поиска и распознавания объектов

Вне зависимости от физической природы носителей сообщений и структуры признаков оценка их информативности рассчитывается одинаково.

Обозначим Unk – дискретньгй признак, где k= 1, 2, ... Kn – индекс значения признака n, n = 1 , 2, ... N – индекс признака.

Признак Unk может интерпретироваться, например, как интенсивность сигнала в n-й ячейке изображения при К уровнях квантования или как дискретизированное значение некоторой критериальной функции.

Общее количество полезной информации при распознавании М объектов, которое может быть получено при измерении всех значений признака Un в соответствии с (10.1), (10.5) равно

, (10.14)

где Р (m), Р (l), Р (i) – вероятности присутствия объектов с индексами m, l, i соответственно; Р (Unk| l) – условная вероятность появления признака Unk при наличии l-го объекта.

Объем полезной информации In не может быть рассчитан заранее. Эта величина определяется в процессе вычислений, так как зависит от значений, которые принимают измеряемые признаки. Этот факт имеет важное значение, являясь основой управления информационными потоками в адаптивных алгоритмах.

В рамках рассматриваемого подхода на каждом шаге измерений необходимо определять информативность всех признаков рабочего словаря, выбирая наиболее информативный для последующего измерения.

При параллельной обработке информации (измерении признаков), в формуле (10.14) может быть использован вектор признаков U. Однако и в этом случае на каждом такте обработки информации возникает проблема оценки наиболее информативных признаков.

Таким образом, информативность признаков в общем случае является величиной, которая может меняться в процессе реализации процесса наблюдения. Например, в процессе обнаружения, в соответствии с формулой (10.14), количество информации, содержащейся в признаке, зависит от переменной оценочной вероятности присутствия объекта. Следовательно, использование неизменной рабочей базы данных (словаря, эталонного изображения) в ряде случаев приводит к недостаточности или избыточности описания объекта.

Необходимым и достаточным условием описания U0 по отношению к идеальному описанию будет равенство

H(M|U0) = H(M|U). (10.15)

В реальных условиях идеальное описание U0 может интерпретироваться как, например, исходное эталонное изображение объекта.

Обнаружение и определение координат объектов. Данный этап поиска представляет собой два синхронно протекающих процесса:

1-й процесс – распределение поисковых ресурсов, в частности, управление направлением линии визирования (ЛВ) и размерами стробирующего окна;

2-й процесс – обработка и анализ принятой информации с целью обнаружения (необнаружения) объекта поиска.

В случае обнаружения объекта, его координаты определяются положением ЛВ. В соответствии с (10.6) общая (взаимная) энтропия этапа может быть представлена в виде

H(Qс, Qоб, t) = H(Qс, t) +H(Qоб, t| Qс), (10.16)

или

H(Qс, Qоб, t) = H(Qоб, t) +H(Qс, t| Qоб), (10.16a)

где H(Qc, t) – энтропия координат объекта; H(Qоб, t) – энтропия присутствия (обнаружения) объекта; Qc – процесс управления ЛВ; Qоб – процесс обнаружения.

Формула (10.16) соответствует процессу поиска при отсутствии информации о нахождении объекта в области поиска.

Формула (10.16а) характеризует процесс поиска «по вызову», когда используется предварительная информация о присутствии объекта в области поиска.

Для формирования модели конкретного процесса необходимо определить значения энтропий, входящих в (10.16).

Рассмотрим, например, информационное описание процесса поиска с равновероятным распределением координат объекта поиска в области V и максимальной точностью измерения координат, определяемую элементарным объемом – .

Система управления позволяет изменять размеры стробирующего окна и направлять ЛВ в любую точку области V.

Пусть процесс является дискретным и в соответствии с (10.16а) имеет общую (взаимную) начальную энтропию на k-м такте

H(Qс, Qоб, k) = H(Qс, k) +H(Qоб, k| Qс),

До начала управления ЛВ, с учетом (10.4), энтропии координат объекта равна

.

Допустим, что ЛВ направлялась в выбранные непересекающиеся подобласти Vi = , в которых происходило обнаружение (необнаружение) объекта с абсолютной достоверностью. Тогда, если все исследованные области были равны (поиск с постоянным стробом), конечная энтропия координат на k-м такте поиска будет равна начальной энтропии (k + 1)-го такта

(10.17)

и в общем случае

, (10.18)

где Vjk – исследованная область поиска.

Формула (10.17) соответствует поиску с постоянными размерами стробирующего окна, (10.18) – с адаптивным окном. На рис. 10.4 представлены графики, иллюстрирующие изменение энтропий в каждом из каналов системы поиска.

Энтропия обнаружения H(Qоб) в начале поиска равна нулю, так как по условию объект находится в области V.

При решении выделить подобласть Vj < V энтропии обнаружения скачком возрастает, а затем уменьшается и к окончанию процесса выделения с точностью Dn становится равной нулю.

H(Qc) принимает максимальное значение при Vj =V/2.

До момента выделения подобласти Vj, в которой должно происходить обнаружение объекта, энтропия обнаружения равна нулю. В момент выделения области поиска энтропия возрастает до значения

,

где Рi – вероятность присутствия (отсутствия) объекта в выделенной области поиска, М = 2.

Энтропия уменьшается до нуля при реализации алгоритма обнаружения и получения полезной информации I.

Изменения Qс и Qоб повторяются на каждом такте обработки информации до достижения условий окончания поиска: требуемого значения конечной энтропии – Нк или заданной длительности процесса – Ттр.

На нижнем графике представлен процесс изменения взаимной энтропии процесса H(Qс, Qоб, k) , которая характеризует общее состояние процесса поиска.

Скорость поступления полезной информации на k-м такте равна

,

где tk – длительность k-го такта обработки информации.

Рассмотрим более общий случай процесса обнаружения, при котором достоверность принятия решений не абсолютна, например, при наличии шумов на принимаемом изображении.

Обозначим:

Qпр – событие присутствия объекта в области поиска;

Qот – отсутствие объекта;

Qпо – правильное обнаружение;

Qпи – правильное необнаружение;

Qлт – ложная тревога;

Qпц – пропуск цели.

Тогда общая энтропия обнаружения объекта в выделенной области равна

H(Qоб| Qс) = P(Qпр)H(Qоб|Qпр) +P(Qот)H(Qоб| Qот), (10.19)

где H (Qоб | Qс) – частная энтропия обнаружения в случае присутствия объекта; H (Qоб | Qот) – частная энтропии обнаружения при отсутствии объекта; Р(Qпр) – вероятность присутствия объекта в области поиска; Р(Qот) – вероятность отсутствия объекта.

Формула (10.19) позволяет оценивать как начальную, так и текущую энтропию процесса на каждом такте обработки информации.

Частные энтропии определяются на основе формул

(10.20)

Вероятности Р(Qт) в зависимости от постановки задачи могут быть выражены как

(10.21)

В случае необходимости в формулы (10.20) можно вводить значения потерь ошибочных решений, что позволяет оценить риск принимаемых решений.

Подобным образом могут быть вычислены энтропии в (10.16a). Формулы (10.18) – (107.20) позволяют определить значения энтропий в (107.16) и полностью сформировать описание процесса поиска.

Распознавание объектов. Пусть признаки объектов распознавания Y= {уn} дискретны (n=1, ...,N) и относятся к вероятностному типу и известны условные вероятности Р(у | хm).

Тогда алгоритм распознавания М-объектов будет иметь следующий вид.

1. Прием и предварительная обработка признаков Y.

2. Определение рабочего словаря Р(Y | хm) с использованием исходной БД (априорного словаря признаков).

3. Расчет формулы Байеса для каждой m-й гипотезы распознавания.

4. Выбор гипотезы в соответствии с выбранным критерием или продолжение распознавания.

В соответствии с (10.12) общая взаимная энтропия процесса распознавания на k-м такте будет

.

Значения Сl(X), Свl(X), Dtl определяются выбором конкретных признаков Y.

Обозначим Р0m) – априорную вероятность появления m-го объекта из М.

Начальная энтропия процесса распознавания в соответствии с (10.3) будет

.

Частная условная энтропия процесса распознавания

.

Общая условная энтропия равна

В процессе распознавания текущая энтропия будет изменяться на каждом k-ом такте согласно (10.11), (10.12).

,

где С(xm), Сn(xm) – скорости получения и переработки полезной и возмущающей информации; Св(xm) соответствует ложной информации, в том числе организованной, увеличивающей текущую энтропию распознавания; Ik(xm) – количество полезной информации, полученной на k-м такте.

Ik(xm) может быть рассчитано на основе оценки информативности полученного сообщения (изображения).

Информационная работоспособность системы

Важным вопросом является оценка объема информации, необходимого для обеспечения работоспособности системы наблюдения. Здесь под работоспособностью понимается состояние системы, при котором она выполняет заданные функции в течение требуемого промежутка времени.

При использовании информационного подхода выполнение заданных функций в зависимости от решаемых задач определяется фактической длительностью процесса обработки информации, текущей H(Q, t) и/или конечной Hk(Q) = H(Q, T) энтропиями процесса, а также требованиями, ограничивающими эти параметры.

Так, если в процессе слежения за подвижным объектом текущая энтропия оказывается больше допустимой, то происходит потеря объекта, т. е. заданная функция – «слежение за объектом» – не выполняется и система не работоспособна. Заметим, что слежение является динамическим процессом и, задавая допустимые пределы изменения текущей энтропии, необходимо учитывать динамические характеристики объекта и системы наблюдения.

Если качество процесса наблюдения определяется конечной энтропией, то при превышении Hk(Q) заданного порога, система также не выполняет заданных функций. Например, когда оценка координат объекта производится с недостаточной точностью.

В общем случае в зависимости от условий работы системы возможно применение следующих информационных показателей качества.

1. Минимизация конечной энтропии процесса

W1 = min Hк(Q) при Т  Ттр (10.22)

где Ттр – требуемое значение длительности процесса.

В частных случаях данный показатель соответствует, например, максимизации вероятности правильного обнаружения (необнаружения), минимизации среднеквадратической ошибки измерения координат и т.д.

2. Минимизация длительности процесса при ограниченной конечной (или текущей) энтропии

W1 = min T при Hк(Q)  Hк.тр(Q), (10.23)

где Hк.тр(Q) – заданное значение конечной энтропии.

Вариантами рассмотренных критериев могут быть критерии, в которых, например, при заданной точности наблюдения (Нк) необходимо максимально расширить область поиска, характеризуемую значением начальной энтропии Н0:

W1 = max H0 при T £ Tтр,

и

W2 = min T при Hк(Q) £ Hк.тр(Q),

Очевидно, что работоспособность системы определяется выполнением неравенств:

T £ Tтр и Hк(Q) £ Hк.тр(Q),

при этом первое неравенство не позволяет получить оценку требуемых объемов информации.

Для W2 минимальный необходимый объем полезной информации равен

Система становится неработоспособной при любых условиях, если количество принимаемой полезной информации меньше величины Imin. Следовательно, необходимое условие информационной работоспособности имеет вид

Iтр ³ Imin, (10.24)

где Iтр – требуемое количество полезной информации.

Условие (10.24) является необходимым, но не достаточным условием информационной работоспособности.

Пусть, например, исследуется процесс Q‚ и для всего процесса Hк.тр = H(t) = H0 = 0, где Н(t) – текущая энтропия процесса Qs; Н0 – начальная энтропия процесса.

Количество полезной информации, необходимое для компенсации возмущающей информации Hв(t) за время Т

Допустим, что в интервале времени 0<t <t1, где t1< Т, выполняется условие C(t)<Cв(t), тогда часть информации

является избыточной и в процессе не используется.

Следовательно, на интервале времени t1 < t < Т, для решения поставленной задачи будет не хватать Iи информации.

В рассматриваемом случае для обеспечения работоспособности системы необходимо, чтобы выполнялось условие

I(Qs, t) ³ Hв(Qs, t), (10.25)

в течение всего процесса.

Очевидно, что при

и соблюдении условия (10.25) минимальное количество перерабатываемой информации за время Т равно

а скорость переработки информации

C(Qs, t) = C0(Qs, t) – Cв(Qs, t),

где C0(Qs, t) – скорость изменения текущей энтропии.

При C(Qs, t) = C0 =const получим

C(Qs, t) = C0 – Cв(Qs, t).

Таким образом, при Cв(Qs, t) > 0, с точки зрения минимума перерабатываемой информации I, оптимальной является адаптивная система, в которой скорость переработки полезной информации изменяется в зависимости от поступления возмущающей информации.

Если известна максимальная скорость поступления возмущающей информации (пропускная способность возмущающей информации)

Cв=max Cв(Qs, t),

и минимальная скорость переработки полезной информации Imin, то достаточным условием информационной работоспособности является

, (10.26)

где Стр – требуемая пропускная способность системы.

Формирование алгоритмов управления

Во многих случаях критерии (10.22) и (10.23) могут быть заменены единым обобщенным информационным критерием (информационным показателем качества процесса) – пропускной способностью системы.

Пусть в базе данных СТЗ имеется R частных алгоритмов, из которых выбирается рабочий алгоритм.

Покажем, что алгоритм r0 из R является оптимальным по любому из условий (10.22), (7.23), если выполняется условие

,

где С(r) – пропускная способность системы (скорость переработки информации) при реализации r-го алгоритма; Н0 – начальная энтропия процесса; Нк.тр – конечная энтропия процесса; Т – время реализации процесса; Св – пропускная способность возмущающей информации, r = 1, ... , R.

Выберем два любых алгоритма из R, позволяющих реализовать некоторый процесс наблюдения.

Обозначим:

– средние скорости поступления возмущающей информации в процессах, реализуемых 1-м и 2-м алгоритмами соответственно:

Св1 = Св2 = Св,

– средние скорости переработки информации постоянны в течение всего процесса и соответственно равны С1, С2.

Рассматривая критерий W1 положим Т = Tтр.

Пусть начальная энтропия процесса Н0 = Н1 = Н2.

При ограниченной длительности процесса имеем значения конечных энтропий:

Hк1 = H0 – C1T + CвT;

Hк2 = H0 – C2T + CвT.

Очевидно, что при С1 > С2 конечная энтропии 2-го процесса будет больше, т.е. Hк1 < Hк2 и процесс, реализуемый 1-м алгоритмом, в соответствии с показателем W1 является более эффективным.

Для показателя W2 ограниченной является конечная энтропия процесса.

Пусть Нк.тр = Н1 = H2.

Определяя длительность процесса, получаем

При С1 > С2 более эффективным является 1-й процесс, так как Т1 < Т2.

Таким образом, можно считать, что оптимальным с точки зрения показателей W1, W2 является алгоритм, обеспечивающий максимальную скорость переработки полезной информации max{СT}.

На рис. 10.5 представлена схема адаптивного алгоритма обработки и анализа изображений, максимизирующего значение С.

На первом этапе работы алгоритма (бл. 1, рис. 10.5) рассчитывается требуемое время реализации процесса Tтр.

Далее проводится оценка его физической реализуемости (бл. 2). Если процесс может быть реализован, то производится выбор стратегии. Если стратегия выбрана, то выбор частных алгоритмов, признаков и/или ЭИ происходит с помощью БД на основе расчета и минимизации С.

Рис. 10.5.