
- •1(Часть 1) Разделы дисциплины.
- •1.1Биометрия
- •1.2Этапы истории
- •2Предмет и основные понятия биометрии
- •2.1Группировка первичных данных
- •2.2Признаки и их свойства.
- •2.3Классификация признаков
- •2.4Причины варьирования результатов наблюдений
- •2.5Точность измерений и действия над приближенными числами
- •2.6Способы группировки первичных данных
- •2.7Статистические ряды.
- •2.8Графики вариационных рядов
- •2.9Особенности биообъекта и экспериментальных данных о его свойствах и состоянии. Основные источники медико-биологических данных.
- •3Общая характеристика биологических сигналов и медико-биологических данных
- •3.1Случайный сигнал и случайная величина
- •3.2Одномерные случайные сигналы. Функция распределения и плотность вероятности
- •3.3Усреднение. Моменты случайной величины
- •3.4Равномерное распределение случайной величины
- •3.5Гауссово (нормальное) распределение
- •3.6Статистические характеристики систем случайной величины (Многомерные сигналы)
- •3.7Функция распределения и плотность вероятности.
- •3.8Вычисление моментов
- •3.9Корреляция
- •3.10Статистическая независимость случайных величин.
- •3.11Многомерное Гауссово распределение.
- •3.12Случайные процессы.
- •3.12.1Предварительная обработка сигналов.
- •3.12.2Моментальные функции случайных процессов.
- •3.12.3Взаимная функция корреляции двух случайных процессов.
- •3.13Помехи и их математические модели.
- •3.13.1Виды аддитивных помех.
- •3.13.2Законы распределения помех.
- •3.13.3Отношение сигнала помехи на прмере гауссовских помех.
- •4Основные понятия теории обнаружения сигнала
- •4.1Проверка статистических гипотез.
- •4.2Критерий Неймана-Пирсона.
- •4.3Алгоритмы обнаружения.
- •5Фильтрация сигналов
- •5.1Временная фильтрация.
- •5.2Частотная фильтрация.
- •5.3Связь между фильтрацией и сверткой.
- •5.4Физически реализуемые линейные фильтры частоты.
- •5.5Идеальный фильтр.
- •5.6Реализуемые непрерывные аналоговые фильтры.
- •5.7Узкополосные фильтры.
- •5.8Оптимальная фильтрация.
- •6(Часть 2) Корреляционный анализ
- •6.1Функциональная зависимость и корреляция
- •6.2Параметрические показатели связи. Коэффициент корреляции
- •6.3Вычисление коэффициента корреляции при малых выборках
- •6.4Минимальный объем выборки для точной оценки коэффициента корреляции
- •6.5Вычисление коэффициента корреляции при больших выборках
- •6.6Оценка разности между коэффициентами корреляции
- •7Качественное описание задач распознавания
- •7.1Основные задачи построения системы распознавания
- •7.2Параметрические и непараметрические методы и критерии
- •7.3Параметрические критерии
- •7.4Непараметрические критерии
- •7.5Статистические методы классификации многомерных наблюдений
- •7.6Минимаксный критерий
- •8Вопросы планирования исследований
- •8.1Приближенные оценки основных статистических показателей
- •8.2Определение необходимого объема выборки
- •9Типы медицинских изображений. Способы их обработки
- •9.1Иднтификация пространственных объектов. Схема этапов распознавания
- •9.2Обработка точечных изображений
- •9.3Моделирование процесса идентификации точечных изображений на эвм
- •9.4Основные принципы цифровых операций над изображениями
- •9.5Операции над изображениями. Хранение и представление изображений.
- •9.6Цветные изображения
- •9.7Окружающие и примыкающие пиксели
- •9.8Основные требования к аппаратуре
- •9.9Устройства ввода изображений
- •9.9.1Видеокамеры
- •9.9.2Насадки
- •9.9.3Другие устройства ввода изображений
- •9.10Устройства вывода изображений на дисплей
- •9.11Процессоры
- •9.12Критерий полезности признаков при распознавании объектов
- •9.13Геометрическая модель биологических данных. Система геометрических признаков при распознавании объектов
- •9.14Простые методы обработки изображений
3.5Гауссово (нормальное) распределение
В теории случайных сигналов фундаментальное значение имеет Гауссова плотность вероятности, содержащая два числовых параметра m и σ.
P(x)=
(1)
И
ли
μ=m, p(x)=
(2)
где dx - малая величина, определяющая ширину интервала, σ - стандартное отклонение, характеризующее степень рассеянности xi случайной величины X вокруг средней μ, называемым математическим ожиданием.
График данной функции представляет собой колообразную кривую с единственным максимумом в точке x=m (см. формулу (1)).
Функция распределения гауссовой случайной величины:
F(x)=
.
График гауссовой плотности вероятности при различных значениях представлен на рисунке 1.
Следует обратить внимание на то, что при уменьшении σ график все более локализуется в окрестности точки x=m.
3.6Статистические характеристики систем случайной величины (Многомерные сигналы)
Свойства случайных сигналов принято описывать, рассматривая не просто те величины, которые наблюдаются в какой-то момент времени, а изучая совокупности этих величин, относящихся к различным фиксированным моментам времени. Это и есть теория подобных многомерных величин.
3.7Функция распределения и плотность вероятности.
Пусть даны случайные величины: {X1,
X2…Xn}
принадлежат вектору
- образуют n-мерный случайный
вектор. По аналогии с одномерным случаем
функция распределения этого вектора:
F(x1, x2,…,xn)=P(X1 x1, X2 x2,…,Xn xn) ,отвечающая ей n-мерная плотность вероятности удовлетворяет соотношению:
P(x1,x2,…,xn)
є P(x1,x2,…,xn)dx1dx2…dxn
= P{x1
X1
x1+dx1,…,xn
Xn
xn+dxn}.
Функция распределения может быть найдена путем интегрирования плотности вероятности.
F(x1,x2,…,
xn)=
…
P(ξ1,
ξ2,…ξn)
dξ1dξ2…dξn.
3.8Вычисление моментов
Располагая соответствующей многомерной плотностью вероятности, можно находить средние значения любых комбинаций из рассматриваемых случайных величин и вычислять их моменты. Так для двумерной случайной величины математическое ожидание находиться по формулам:
x1p
(x1,x2)
dx1dx2;
x2p
(x1,x2)
dx1dx2.
Дисперсия соответственно равна:
p
(x1,x2)
dx1dx2
;
p
(x1,x2)
dx1dx2.
Новой, по сравнению с одномерным случаем, является возможность образования смешанного момента второго порядка, называемого ковариационным моментом системы двух случайных величин.
Ковариация равна:
k12=
=
x1x2p
(x1,x2)
dx1dx2.
3.9Корреляция
Предположим, что проведена серия опытов, в результате которых, каждый раз наблюдалась двумерная случайная величина {X1,X2}. Исход каждого опыта изображается точкой на декартовой плоскости. Может оказаться, что изображающие точки в среднем располагаются вдоль некоторой прямой, так что в каждом отдельном испытании величины x1 и x2 имеют чаще всего одинаковый знак. Это говорит о том, что между x1 и x2 есть статистическая связь, называемая корреляцией..
Однако возможен случай хаотического расположения точек на плоскости (рис.2). При этом рассматриваемые величины не коррелированны, т.е. между ними нет устойчивой связи в вероятном смысле. Количественной характеристикой степени статистической связи двух случайных величин служит его ковариационный момент k12 или, что удобнее,
корреляционный момент R12, определяемый как среднее значение произведения.
R12=
R12=
p
(x1, x2)
dx1dx2=k12
-
.
Б
езразмерный
коэффициент корреляции: r12=R12/(σ1σ2).
Для совпадающих случайных величин, когда x1=x2 имеет место равенство:
R11=R22=σ2 и r11=r22=1.
Если размерность случайного вектора больше двух, то можно построить перекрестные корреляционные моменты.
Rij=
При i, j=1,2,…,n.
А также коэффициенты корреляции
rij=Rij/(σi σj), которые объединяются в соответствующие матрицы:
R=
;
r=
.
,
при чем равенство возможно при условии,
если xi=
xj
(полностью коррелированные величины).