- •1. Случайное событие. Вероятность случайного события. Классическое и статистическое определение вероятности. Понятие о совместных и несовместных событиях. Закон (теорема) сложения вероятностей.
- •2. Понятие о зависимых и независимых событиях. Условная вероятность, закон (теорема) умножения вероятностей. Формула Байеса.
- •4. Основные понятия математической статистики. Генеральная совокупность и выборка. Статистическое распределение (вариационный ряд). Гистограмма. Полигон частот.
- •5. Характеристики положения (мода, медиана, выборочное среднее) и рассеяния (выборочная дисперсия и выборочное среднее квадратическое отклонение).
- •6. Оценка параметров генеральной совокупности по ее выборке (точечная и интервальная). Доверительный интервал и доверительная вероятность.
- •7. Общая постановка задачи проверки гипотез. Параметрические и непараметрические статистические критерии.
- •8. Проверка гипотез относительно генеральных средних и относительно генеральных дисперсий.
- •9. Закон распределения случайной величины. Проверка гипотез о законах распределения случайных величин.
- •10. Функциональная и корреляционная зависимости. Коэффициент линейной корреляции и его свойства.
- •11.Ошибка выборочного коэффициента линейной корреляции. Проверка гипотезы о значимости выборочного коэффициента линейной корреляции.
- •12. Выборочное уравнение линейной регрессии. Нелинейная регрессия. Коэффициент корреляции рангов Спирмена.
- •13. Определение дисперсионного анализа (да). Основные понятия и виды да.
- •14. Условия проведения дисперсионного анализа (да). Однофакторный да.
- •15. Анализ двухфакторных комплексов. Понятие о многофакторном комплексе.
- •16. Предмет и задачи информатики. Основные направления информатики. Признаки, условия и последствия информатизации общества. Кибернетика и информатика.
- •17. Информация и ее свойства. Меры информации. Информационная система (ис). Структура и классификация ис.
- •18. Информационные технологии (ит). Классификация ит. Новые информационные технологии (нит).
- •19. Форма представления информации в эвм. Единицы измерения информации. Классификация эвм по этапам создания, по размерам и функциональным возможностям, по назначению.
- •20. Структурная схема эвм. Процессор, его характеристики. Запоминающее устройство. Устройства ввода и вывода информации.
- •21. Структурная схема персонального компьютера (пк). Системный блок. Мониторы: классификация и основные параметры. Клавиатуры, группы клавиш клавиатуры. Средства мультимедиа.
- •22. Программные продукты и их классификация. Защита программных продуктов ( правовая и программная). Цели и направления защиты.
- •23. Системное программное обеспечение (базовое и сервисное). Операционная система (ос). Операционная оболочка. Графическая операционная система Windows.
- •24. Прикладные программные продукты. Текстовые редакторы. Текстовый процессор ms Word и его возможности.
- •25. Электронные таблицы. Табличный процессор ms Excel. Типовая структура интерфейса Excel. Функциональные и графические возможности Excel.
- •26. Базы данных (бд). Система управления базами данных (субд). Классификация баз данных. Типовая структура интерфейса ms Access. Медицинские бд.
- •27. Экспертная система (эс). Структура эс. Этапы построения эс. Классификация эс. Медицинские эс.
- •28. Графические редакторы. Виды и примеры графических редакторов. Интерфейс, возможности и инструменты графического редактора Paint.
- •29. Компьютерные сети, их классификация. Локальные компьютерные сети: виды, топология, техническое и программное обеспечение, возможности.
- •30. Глобальная компьютерная сеть Интернет: типы соединения компьютеров, система адресации, протокол. Ресурсы Интернет. Применение в медицине и здравоохранении.
- •30. Глобальная компьютерная сеть Интернет: типы соединения компьютеров, система адресации, протокол. Ресурсы Интернет. Применение в медицине и здравоохранении.
- •31. Группы медицинской информации. Определение медицинской документации. Характеристика групп стандартной медицинской документации.
- •33. Определение медицинской информатики. Составные элементы медицинской информатики. Разделы медицинской информатики.
- •34. Классификация информационных технологий (ит) в медицине. Ит управления медицинскими учреждениями. Ит клинической информатики(-).
- •35. Понятие медицинской информационной системы. Единая информационная система (еис) в сфере здравоохранения и социального развития.
- •36. Понятие о телемедицине. Стратегические задачи использования информационных технологий в медицине.
- •37. Моделирование как метод познания. Определение модели, ее свойства и характеристики. Классификация моделей.
- •38. Математические модели: определение, классификация, требования, особенности и преимущества. Основные этапы моделирования.
- •41. Информатизация медицинского технологического процесса в лпу. Арм врача: классификация, назначение, аппаратное и программное обеспечение.
- •42. Определение мис. Цели, задачи и функции мис лпу. Классификация мис.
- •43. Принципы создания мис. Требования, условия и этапность при построении мис. Структура мис.
- •44. Основы функционирования мис. Подсистемы мис "Поликлиника" и "Электронная регистратура".
- •45. Основы функционирования мис. Подсистемы мис "Электронная история болезней" и "Архив функциональных исследований “
1. Случайное событие. Вероятность случайного события. Классическое и статистическое определение вероятности. Понятие о совместных и несовместных событиях. Закон (теорема) сложения вероятностей.
Случайное событие – это любой факт, который в результате испытания может произойти или не произойти. Случайное событие – это результат испытания. Испытание – это эксперимент, выполнение определенного комплекса условий, в которых наблюдается то или иное явление, фиксируется тот или иной результат.
События обозначаются заглавными буквами латинского алфавита А,В,С.
Численная мера степени объективности возможности наступления события называется вероятностью случайного события.
Классическое определение вероятности события А:
Р(А)=m/n
Вероятность события А равна отношению числа случаев, благоприятствующих событию A(m), к общему числу случаев (n).
Статистическое определение вероятности
Относительная частота событий – это доля тех фактически проведенных испытаний, в которых событие А появилось W=P*(A)= m/n. Это опытная экспериментальная характеристика, где m – число опытов, в которых появилось событие А; n – число всех проведенных опытов.
Вероятностью события называется число, около которого группируются значения частоты данного события в различных сериях большого числа испытаний P(A)=.
События называются несовместными, если наступление одного из них исключает появление другого. В противном случае события – совместные.
Сумма двух событий – это такое событие, при котором появляется хотя бы одно из этих событий (А или В).
Если А и В совместные события, то их сумма А+В обозначает наступление события А или события В, или обоих событий вместе.
Если А и В несовместные события, то сумма А+В означает наступление или события А или события В.
2. Понятие о зависимых и независимых событиях. Условная вероятность, закон (теорема) умножения вероятностей. Формула Байеса.
Событие В называется независимым от события А, если появление события А не изменяет вероятности появления события В. Вероятностью появления нескольких независимых событий равна произведению вероятностей этих:
P(AB) = P(A)*P(B)
Для зависимых событий:
P(AB) = P(A)*Р(B/A).
Вероятность произведения двух событий равна произведению вероятности одного из них на условную вероятность другого, найденную в предположении, что первое событие произошло.
Условная вероятность события В - это вероятность события В, найденная при условии, что событие А произошло. Обозначается Р(В/А)
Произведение двух событий – это событие, состоящее в совместном появлении этих событий (А и В)
Формула Байеса служит для переоценки случайных событий
P(H/A) = (P(H)*P(A/H))/P(A)
P(H) – априорная вероятность события Н
P(H/A) – апостериорная вероятность гипотезы H при условии, что событие А уже произошло
P(A/H) – экспертная оценка
P(A) – полня вероятность события А
3. Распределение дискретных и непрерывных случайных величин и их характеристики: математическое ожидание, дисперсия, среднее квадратичное отклонение. Нормальный закон распределения непрерывных случайных величин.
Случайная величина – это величина, которая в результате испытания в зависимости от случая принимает одно из возможного множества своих значений.
Дискретная случайная величина – это случайная величина, когда принимает отдельное изолированное, счетное множество значений.
Непрерывная случайная величина – это случайная величина, принимающая любые значения из некоторого интервала. Понятие непрерывной случайной величины возникает при измерениях.
Для дискретной случайной величины закон распределения может быть задан в виде таблицы, аналитически (в виде формулы) и графически.
Таблица – это простейшая форма задания закона распределения
Хi |
X1 |
X2 |
… |
Xn |
Pi |
P1 |
P2 |
… |
Pn |
Требования:
для дискретных случайных величин
Аналитический:
1)F(x)=P(X<x)
Функция распределения = интегральная функция распределения. Для дискретный и непрерывных случайных величин.
2)f(x) = F’(x)
Плотность распределения вероятностей = дифференциальная функция распределения только для непрерывной случайной велечины.
Графический:
С-ва: 1) 0≤F(x)≤1
2) неубывающая для дискретных случайных величин
для непрерывных случайных величин
С-ва: 1) f(x)≥0 P(x)=
2) площадь S=1
для непрерывных случайных величин
Характеристики:
1.математическое ожидание – среднее наиболее вероятное событие
Для дискретных случайных величин.
Для непрерывных случайных величин.
2)Дисперсия – рассеяние вокруг математического ожидания
Для дискретных случайных величин:
D(x)=xi-M(x))2*pi
Для непрерывных случайных величин:
D(x)=x-M(x))2*f(x)dx
3)Среднее квадратическое отклонение:
σ(х)=√(D(x))
σ – стандартное отклонение или стандарт
х – арифметическое значение корня квадратного из ее дисперсии
Нормальный закон распределения (НЗР) – закон Гаусса
НЗР – это распад вероятностей непрерывной случайной величины, который описывается дифференциальной функцией