Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
!52 - 54_Медицинские технологии (Шершнев).doc
Скачиваний:
0
Добавлен:
01.04.2025
Размер:
336.9 Кб
Скачать

52. Модели медицинской диагностики, основанные на теории статистич-х решений

В теории статистических решений каждый класс объектов KS задается не набором прецедентов, а функцией распределения fS, которая определяет вероятность появления объекта из класса S в точке x m-мерного пространства.

Вероятность появления точки в тех или других классах разная.

Решающее правило: объект относится к тому классу, у которого вероятность больше.

- поверхность, разделяющая 2 класса (в одномерном случае – точка).

P(2|1) = α – ошибка первого рода (вероятность того, что объект из класса К1 классифицируется в класс К2)

Р(1|2) = β – ошибка второго рода (вероятность того, что объект из класса K2 классифицируется в класс К1)

Тогда решающее правило: α + β → min

С1, С2 – стоимость ошибки первого и второго рода

Тогда решающее правило ищем не по минимуму ошибки, а по минимуму стоимости потерь при ошибках: С1α + С2β → min

Модели

  1. Метод максимального правдоподобия

Если признаки независимы, то: fS(x) = fS(x1)fS(x2) fS(xm)

Тогда: γ(x) = γ(x1) + γ(x2) + … + γ(xm)

γ(xj) = ДК(xj), ДК – диагностический коэффициент

  1. Метод Неймана-Пирсона

Если признаки непрерывные, то используются коэффициенты корреляции Пирсона ρ. |ρ| [0,1]

Если ρ → 0, то признаки никак не связаны между собой.

Если ρ → 1, то признаки связаны так тесно, что один из них можно выбросить (признаки дублируют друг друга с точностью до постоянных коэффициентов)

Если признаки независимы, то они должны быть представлены одномерной функцией распределения f(xj)

Если признаки зависимы, то рассматривается функция распределения для пары f(xi xp)

Наиболее просто применять этот метод, когда: 1) Все функции являются нормальными гауссовыми, 2) Все признаки бинарные

  1. Модель Фишера

Рассмотрим нормальное распределение:

Решающее правило:

Такой ответ получается в случае, когда дисперсии в классах К1 и К2 одинаковы.

Если дисперсии отличаются, то модель Фишера усложняется.

Для многомерной модели:

Более сложный вариант решающего правила содержит матрицу ковариации:

  1. Метод Байеса

Известно: вектор признаков x = (x1, x2,…, xm), классы КS,

P(xKs) – вероятность того, что объект, имеющий вектор признаков х принадлежит классу Кs

P(xKs) = P(x)P(Ks/x) , где P(x) – вероятность появления вектора признаков х во всех классах

P(Ks/x) – вероятность того, что объект принадлежит классу Кs при условии, что он имеет вектор признаков х.

P(xKs) = P(Ks)P(x/Ks)

P(Ks) – вероятность появления класса Ks (не зависит от вектора признаков). Это априорная информация принадлежности классу. Эта вероятность отражает то свойство классов, которая означает, что объекты из разных классов могут встречаться не одинаково часто.

P(x/Ks) – вероятность того, что объект имеет вектор признаков х при условии, что он принадлежит классу Ks. (Это функция распределения для s-го класса fs(x))

Теорема Байеса

P(Ks/x) – апостериорная информация (получается после проведения опыта).

Решающее правило: объект х относится к такому классу, для которого апостериорная вероятность максимальная.

Если всего 2 класса, то получаем соотношение максимального правдоподобия: