- •1(Часть 1) Разделы дисциплины.
- •1.1Биометрия
- •1.2Этапы истории
- •2Предмет и основные понятия биометрии
- •2.1Группировка первичных данных
- •2.2Признаки и их свойства.
- •2.3Классификация признаков
- •2.4Причины варьирования результатов наблюдений
- •2.5Точность измерений и действия над приближенными числами
- •2.6Способы группировки первичных данных
- •2.7Статистические ряды.
- •2.8Графики вариационных рядов
- •2.9Особенности биообъекта и экспериментальных данных о его свойствах и состоянии. Основные источники медико-биологических данных.
- •3Общая характеристика биологических сигналов и медико-биологических данных
- •3.1Случайный сигнал и случайная величина
- •3.2Одномерные случайные сигналы. Функция распределения и плотность вероятности
- •3.3Усреднение. Моменты случайной величины
- •3.4Равномерное распределение случайной величины
- •3.5Гауссово (нормальное) распределение
- •3.6Статистические характеристики систем случайной величины (Многомерные сигналы)
- •3.7Функция распределения и плотность вероятности.
- •3.8Вычисление моментов
- •3.9Корреляция
- •3.10Статистическая независимость случайных величин.
- •3.11Многомерное Гауссово распределение.
- •3.12Случайные процессы.
- •3.12.1Предварительная обработка сигналов.
- •3.12.2Моментальные функции случайных процессов.
- •3.12.3Взаимная функция корреляции двух случайных процессов.
- •3.13Помехи и их математические модели.
- •3.13.1Виды аддитивных помех.
- •3.13.2Законы распределения помех.
- •3.13.3Отношение сигнала помехи на прмере гауссовских помех.
- •4Основные понятия теории обнаружения сигнала
- •4.1Проверка статистических гипотез.
- •4.2Критерий Неймана-Пирсона.
- •4.3Алгоритмы обнаружения.
- •5Фильтрация сигналов
- •5.1Временная фильтрация.
- •5.2Частотная фильтрация.
- •5.3Связь между фильтрацией и сверткой.
- •5.4Физически реализуемые линейные фильтры частоты.
- •5.5Идеальный фильтр.
- •5.6Реализуемые непрерывные аналоговые фильтры.
- •5.7Узкополосные фильтры.
- •5.8Оптимальная фильтрация.
- •6(Часть 2) Корреляционный анализ
- •6.1Функциональная зависимость и корреляция
- •6.2Параметрические показатели связи. Коэффициент корреляции
- •6.3Вычисление коэффициента корреляции при малых выборках
- •6.4Минимальный объем выборки для точной оценки коэффициента корреляции
- •6.5Вычисление коэффициента корреляции при больших выборках
- •6.6Оценка разности между коэффициентами корреляции
- •7Качественное описание задач распознавания
- •7.1Основные задачи построения системы распознавания
- •7.2Параметрические и непараметрические методы и критерии
- •7.3Параметрические критерии
- •7.4Непараметрические критерии
- •7.5Статистические методы классификации многомерных наблюдений
- •7.6Минимаксный критерий
- •8Вопросы планирования исследований
- •8.1Приближенные оценки основных статистических показателей
- •8.2Определение необходимого объема выборки
- •9Типы медицинских изображений. Способы их обработки
- •9.1Иднтификация пространственных объектов. Схема этапов распознавания
- •9.2Обработка точечных изображений
- •9.3Моделирование процесса идентификации точечных изображений на эвм
- •9.4Основные принципы цифровых операций над изображениями
- •9.5Операции над изображениями. Хранение и представление изображений.
- •9.6Цветные изображения
- •9.7Окружающие и примыкающие пиксели
- •9.8Основные требования к аппаратуре
- •9.9Устройства ввода изображений
- •9.9.1Видеокамеры
- •9.9.2Насадки
- •9.9.3Другие устройства ввода изображений
- •9.10Устройства вывода изображений на дисплей
- •9.11Процессоры
- •9.12Критерий полезности признаков при распознавании объектов
- •9.13Геометрическая модель биологических данных. Система геометрических признаков при распознавании объектов
- •9.14Простые методы обработки изображений
3.10Статистическая независимость случайных величин.
Случайные величины X1, X2,…Xn статистически независимы, если их многомерная плотность вероятности может быть представлена в виде произведения соответствующих одномерных плотностей:
P(x1,x2,…,xn)=p1(x1)p2(x2)…pn(xn). Статистически независимые случайные величины некоррелируемые между собой; для них действительно:
Rij= при i j.
3.11Многомерное Гауссово распределение.
Предположим, что для n-мерной случайной величины ={X1,X2,…Xn} известны совокупности средних значений m1,m2,…mn и дисперсий σ12, σ22 …σn2, а также матрица коэффициентов корреляции r. В общем случае для этих сведений недостаточно только их значение для построения n-мерной плотности вероятности. Исключением является случай, когда вектор X- многомерная Гауссова величина. Тогда
p (x1,x2,…,xn)= ,
где - это определитель матрицы r, Aij-алгебраическое дополнение элемента rij определителя . Одно из важнейших свойств Гауссова распределения следующее: пусть вектор X образован некоррелируемыми случайными величинами так, что в матрице отличны от нуля лишь элементы на главной диагонали rij=δij , где δij- это символ Кронекера, равный
δij=
при этом =1, Aij= δij, отсюда следует
p (x1,x2,…,xn)= p(x1)p(x2)…p(xn).
Где каждая из одномерного Гауссова распределения обладает параметрами mi и δi. Если Гауссова совокупность образована некоррелируемыми случайными величинами, то все они статистически независимы.
Плотность вероятности суммы случайной величины.
Сумма нормальных случайных величин распределена так же нормально, при чем математические ожидания и дисперсия слагаемых суммируются.
miε= , σiε= .
3.12Случайные процессы.
Для описания символов, которые отображают развивающиеся во времени случайные явления, методы классической теории вероятности недостаточны. Подробные задачи изучает особая ветвь в математике, которая называется терией случайных процессов.
Случайный процесс X(t)- это особого вида функция, характеризующаяся тем, что в любой момент времени t , принимаемые ею значения являются случайными величинами. Случайный процесс представляет собой бесконечную совокупность таких реализаций, которые образуют статистический ансамбль. Например, ансамблем является набор символов {x1(t); x2(t);…;xn(t)}, которые можно одновременно наблюдать на выходах совершенно одинаковых генераторов шумового напряжения. Совсем не обязательно, чтобы реализация случайного процесса представлялась функциями со сложным не регулируемым во времени поведением. Часто приходиться рассматривать случайные процессы, образованные всевозможными гармоническими сигналами.
Ucos(ωt+φ), у которых один из трех параметров U, ω и φ - случайная величина, принимающая определенное значение в каждой реализации. Случайный характер такого сигнала заключен в невозможности заранее знать значение этого параметра. Случайные процессы, образованные реализациями, зависящими от конечного числа параметров, принято называть квазидетерминированными случайными процессами.
3.12.1Предварительная обработка сигналов.
Сигнал - это физический процесс, несущий информацию .
Примеры случайных событий.
В тексте бывают опечатки, в речи - оговорки, неточности, заминки. В наушниках радиоприемника слышен шорох, на экране телевизора мелькают посторонние полосы. Все перечисленной является искажением сигнала случайными воздействиями, т.е. шумами, помехами. При наложении помех на сигнал мы получаем вместо информации о событии нечто такое, что не имеет отношения к событию. Информация разрушается. Помеха - враг сигнала, но одновременно она связана с сигналом родством; и помеху и сигнал можно рассматривать как случайный процесс.
Например, на выходе усилителя приемника сигнала при большом усилении всегда имеется U шумов, которые представляют собой случайную величину и принимают в разные моменты времени случайные значения. Эти шумы происходят от флуктуации тока во входных цепях усилителя, обязанных тепловому, хаотическому движению электронов. Если измерить значение шумового U в разные моменты времени и посчитать частоту тех или иных значений, то закон распределения окажется близким к нормальному. Тепловые шумы поэтому называются нормальными или гауссовыми.
Если на вход усилителя приемника поступает сигнал и при том настолько слабый, что он мал по сравнению с шумами, то распределение вероятности U на выходе изменится. Наблюдая U на выходе однократно или в течении короткого промежутка времени t мы не можем с достоверностью установить присутствие или отсутствие сигнала и только продолжая наблюдения достаточно долго по изменению всегда распространения можем решить этот вопрос. Подобная ситуация представляется общей для современного естествознания. В любом эксперименте результаты наблюдений подвержены случайным отклонениям . Единичное наблюдение может дать результат сильно отличающийся от среднего, поэтому результаты эксперимента должны быть после обработки представлены в виде кривых распределения вероятностей этих величин, избежать ошибок позволит корректная статистическая обработка результатов, когда на выходе приемника одновременно присутствует сигнал и шум, мы имеем дело с вероятностью сложного события - U, зависящего от двух случайных причин. Для подробных ситуаций следует использовать понятие вероятности сложного события и условной вероятности. Получив на приемном конце канала связи некоторый сигнал, искаженный шумами, мы оказываемся не в состоянии точно указать, какой именно сигнал был передан. Можно строить только предположения и гипотезы на этот счет, каждое из которых после получения искаженного сигнала, приобретает некоторую апостериорную вероятность (послеопытную). Проблема получения сигналов в шумах или помехах является одной из центральных проблем, не только теории техники и связи, но и медицинской техники и биофизики, а также другой области применения - кибернетики. Величина шумов или помех по сравнению с сигналом определяет скрытость, с которой можно передавать сигнал без ошибок.
Статистические характеристики помех заставляют применять особые моменты передачи и приема максимальный по мощности сигнал, различимый при заданном числе наблюдений на фоне существующих шумов, носит название порогового сигнала, чем ниже его мощность, тем выше чувствительность приемника. Чувствительность приемника является одним из самых важных его качеств, как правило, технические устройства для приема сигнала далеко уступают в чувствительности естественных приемников, которые существуют у живых организмов в виде рецепторов и органов чувств. С этой точки зрения изучение процессов восприятия сигналов у живых организмов может принести огромную пользу технике. Не только шумы, накладывающиеся на сигнал, являются примером случайных воздействий на кибернетические системы. Иногда
Случайные воздействия поступают другим способом. Например, система в целом использует случайные воздействия в виде порывов ветра, ударов волн, течений, которые хаотически изменяют курс корабля. Возникает задача противодействия этим случайным влияниям. Необходимо стабилизировать систему, сделать ее независимой от случайных воздействий, подобные задачи стабилизации решают многие естественные и искусственные кибернетические системы. Например, органы тела животного обеспечивают постоянную температуру, давление, состав крови при случайных воздействиях и изменениях внешних и внутренних условий (температура, питание, нагрузка).
Случайные воздействия неизвестны и непредвиденные изменения обстановки есть нормальные условия существования как живых организмов, так и созданных человеком кибернетических систем. Имея дело с шумами, помехами или приемом заранее неизвестного случайного сигнала приходиться рассчитывать последовательность случайных событий во времени, в данном случае мы имеем дело не со случайной величиной , а со случайной функцией времени.
Если множество случайных функций можно охарактеризовать с помощью распределения вероятностей, то процесс, включающий в себя это множество, является случайным. Для характеристики случайного процесса обычно задаются вероятности сложных событий, состоящих в совместном появлении определенных величин в разные моменты времени:
вероятность того, что величина X в момент времени t окажется в интервале
x1; x1+d x1 p1(x1;t1) d x1 (1);
2) вероятность того, что X в момент времени t окажется в интервале x1; x1+d x1, а затем в момент времени t2 окажется в интервале x2; x2+d x2 p2(x1t1; x2t2) d x1d x2 (2) и т.д..
Если дни некоторого случайного процесса заменить все значения t1;t2;… в формулах (1) и (2) на t1+τ; t2+τ и т.д. не изменяет величин вероятности p1, p2… , то такой случайный процесс называют стационарным. Смещение по времени τ может быть выбрано произвольно. Характеристики стационарного процесс не зависят от времени. Их можно изучить, только наблюдая процесс достаточно длительное время. В случае нестационарного процесса необходимо большое число одновременно протекающих процессов или восприятие процесса с начала и до конца много раз стационарными являются шумы приемника.