- •1(Часть 1) Разделы дисциплины.
- •1.1Биометрия
- •1.2Этапы истории
- •2Предмет и основные понятия биометрии
- •2.1Группировка первичных данных
- •2.2Признаки и их свойства.
- •2.3Классификация признаков
- •2.4Причины варьирования результатов наблюдений
- •2.5Точность измерений и действия над приближенными числами
- •2.6Способы группировки первичных данных
- •2.7Статистические ряды.
- •2.8Графики вариационных рядов
- •2.9Особенности биообъекта и экспериментальных данных о его свойствах и состоянии. Основные источники медико-биологических данных.
- •3Общая характеристика биологических сигналов и медико-биологических данных
- •3.1Случайный сигнал и случайная величина
- •3.2Одномерные случайные сигналы. Функция распределения и плотность вероятности
- •3.3Усреднение. Моменты случайной величины
- •3.4Равномерное распределение случайной величины
- •3.5Гауссово (нормальное) распределение
- •3.6Статистические характеристики систем случайной величины (Многомерные сигналы)
- •3.7Функция распределения и плотность вероятности.
- •3.8Вычисление моментов
- •3.9Корреляция
- •3.10Статистическая независимость случайных величин.
- •3.11Многомерное Гауссово распределение.
- •3.12Случайные процессы.
- •3.12.1Предварительная обработка сигналов.
- •3.12.2Моментальные функции случайных процессов.
- •3.12.3Взаимная функция корреляции двух случайных процессов.
- •3.13Помехи и их математические модели.
- •3.13.1Виды аддитивных помех.
- •3.13.2Законы распределения помех.
- •3.13.3Отношение сигнала помехи на прмере гауссовских помех.
- •4Основные понятия теории обнаружения сигнала
- •4.1Проверка статистических гипотез.
- •4.2Критерий Неймана-Пирсона.
- •4.3Алгоритмы обнаружения.
- •5Фильтрация сигналов
- •5.1Временная фильтрация.
- •5.2Частотная фильтрация.
- •5.3Связь между фильтрацией и сверткой.
- •5.4Физически реализуемые линейные фильтры частоты.
- •5.5Идеальный фильтр.
- •5.6Реализуемые непрерывные аналоговые фильтры.
- •5.7Узкополосные фильтры.
- •5.8Оптимальная фильтрация.
- •6(Часть 2) Корреляционный анализ
- •6.1Функциональная зависимость и корреляция
- •6.2Параметрические показатели связи. Коэффициент корреляции
- •6.3Вычисление коэффициента корреляции при малых выборках
- •6.4Минимальный объем выборки для точной оценки коэффициента корреляции
- •6.5Вычисление коэффициента корреляции при больших выборках
- •6.6Оценка разности между коэффициентами корреляции
- •7Качественное описание задач распознавания
- •7.1Основные задачи построения системы распознавания
- •7.2Параметрические и непараметрические методы и критерии
- •7.3Параметрические критерии
- •7.4Непараметрические критерии
- •7.5Статистические методы классификации многомерных наблюдений
- •7.6Минимаксный критерий
- •8Вопросы планирования исследований
- •8.1Приближенные оценки основных статистических показателей
- •8.2Определение необходимого объема выборки
- •9Типы медицинских изображений. Способы их обработки
- •9.1Иднтификация пространственных объектов. Схема этапов распознавания
- •9.2Обработка точечных изображений
- •9.3Моделирование процесса идентификации точечных изображений на эвм
- •9.4Основные принципы цифровых операций над изображениями
- •9.5Операции над изображениями. Хранение и представление изображений.
- •9.6Цветные изображения
- •9.7Окружающие и примыкающие пиксели
- •9.8Основные требования к аппаратуре
- •9.9Устройства ввода изображений
- •9.9.1Видеокамеры
- •9.9.2Насадки
- •9.9.3Другие устройства ввода изображений
- •9.10Устройства вывода изображений на дисплей
- •9.11Процессоры
- •9.12Критерий полезности признаков при распознавании объектов
- •9.13Геометрическая модель биологических данных. Система геометрических признаков при распознавании объектов
- •9.14Простые методы обработки изображений
3Общая характеристика биологических сигналов и медико-биологических данных
3.1Случайный сигнал и случайная величина
Отличительной чертой случайного сигнала является то, что его мгновенное значение заранее непредсказуемо, вероятные законы возникают всегда, если физическая система, порождающая случайный сигнал, представляет собой объединение большого числа более мелких подсистем, совершающих индивидуальные действия в большей или меньшей степени независимо друг от друга. В медицине, биофизике и радиотехнике случайные сигналы часто имеют вид шумов. Это хаотически изменяющиеся во времени электромагнитные колебания, наблюдаемые в разнообразных физических системах, где носители заряда, например, электроны, совершают беспорядочные движения. К математической модели случайного сигнала прибегают также в теории информации для вероятного описания закономерностей, присущих осмысленным сообщениям. Наконец, статистическую природу имеют сигналы в лазерных линиях связи, здесь принципиально необходимо учитывать специфический квантовый шум.
3.2Одномерные случайные сигналы. Функция распределения и плотность вероятности
Пусть X - случайная величина, т.е. совокупность всевозможных вещественных значений x, принимающих случайное значение. Описание статистических свойств X можно получить, имея неслучайную функцию F(x) вещественного аргумента x, которая равна вероятности того, что случайное число из X примет значение, равное или меньшее конкретного x.
F(x)=P(X x), где функция F(x) называется функцией распределения случайной величины X.
Если X может принимать любые значения, F(x) является гладкой неубывающей функцией, значения которой лежат на отрезке 0 F(x) 1, при этом имеет место следующие предельные равенства:
F(-∞)=0; F(∞)=1.
Производная от функции распределения P(x)= является плотностью распределения вероятности, т.е. величина P(x)*dx - есть вероятность попадания случайной величины X в полуинтервал (x, x+dx].
3.3Усреднение. Моменты случайной величины
Результатами экспериментов над случайными величинами служат средние значения тех или иных функций от этих величин. Если φ(x) - известная функция от x (исхода случайного испытания), то ее среднее значение будет равно
φ(x) = φ(x)*p(x)dx..
В статистической медицине и биофизике широко применяются числовые характеристики случайных величин, называемые их моментами. Момент n-го порядка случайной величины X - есть среднее значение n-ной степени случайной переменной.
mn= n= xn*p(x)dx .
Моментом первого порядка является математическое ожидание
m1= = x*p(x)dx .
Математическое ожидание служит теоретической оценкой среднего значения случайной величины. Момент второго порядка является квадратом среднего значения случайной величины.
m2= 2= x2*p(x)dx .
Используя центральные моменты случайной величины, получим следующую формулу:
μn= n= n * p(x)dx .
Важнейшим центральным моментом является дисперсия:
σx2= μ2= 2 (1)
σx2= = 2-( )2.
Рассмотренная величина σx= является средним квадратичным отклонением.
3.4Равномерное распределение случайной величины
Пусть некоторая случайная величина X принимает значения, принадлежащие лишь отрезку
Xє x1 x x2, причем вероятности попадания в любые внутренние интервалы одинаковой ширины ∆x равны. Тогда плотность вероятности:
p(x)= ;
Функцию распределения находят путем интегрирования:
F(x)= p(ξ)dξ= .
Математическое ожидание:
=
совпадает с центром отрезка [x1,x2].
Дисперсия случайной величины: σx2=(x2-x1)2/12, если случайная величина имеет равномерное распределение вероятности.