
- •01Краткий курс: Основные понятия теории вероятностей и математической статистики.
- •6. Основные понятия теории вероятности.
- •Случайные величины и законы их распределения.
- •Числовые характеристики случайных величин.
- •Нормальный закон распределения.
- •Основные понятия математической статистики.
- •Точечная оценка случайной величины.
- •Интервальные оценки случайных величин.
- •Проверка статистических гипотез.
- •Параметрические и непараметрические критерии различия.
- •18. Сравнение двух статистических совокупностей. Критерий Стьюдента. Критерий Фишера.
- •Корреляционная зависимость. Коэффициент корреляции и его свойства. Уравнение регрессии.
- •20. Информация. Количество информации. Единицы количества информации.
- •21. Информационная энтропия. Формула Хартли и Шеннона.
- •22. Общая схема съема, передачи и регистрации информации.
- •23. Понятие о сенсорных системах. Абсолютные и дифференциальные пороги.
- •24. Элементы психофизики. Связь между изменением интенсивности ощущения с изменением силы раздражителя (законы Вебера, Вебера – Фехнера и Стивенса).
- •Предмет и метод биофизики. Связь биофизики с другими естественными науками.
- •Значение и особенности термодинамического метода изучения биологических систем. Первое начало термодинамики.
- •27.Обратимые и необратимые процессы. Энтропия. Термодинамическое толкование энтропии.
- •28. Статистическое толкование энтропии. Второе начало термодинамики.
- •Организм как открытая система. Понятие продукции и притока энтропии в открытых системах.
- •Понятие о стационарном состоянии. Критерий стационарности. Теорема Пригожина.
- •Постоянство внутренней среды организма.
- •Сравнение стационарного состояния и термодинамического равновесия.
- •Аутостабилизация стационарных систем. Принцип Ле – Шателье – Бауэра.
- •36. Биореология.
- •Вязкость жидкости. Уравнение Ньютона.
- •Ньютоновские и неньютоновские жидкости.
- •Реологические свойства крови, плазмы и сыворотки крови.
- •Методы измерения вязкости крови.
- •Физические основы гемодинамики.
- •Общие закономерности движения крови по кровеносному руслу.
- •Гидравлическое сопротивление сосудов. Гидравлическое сопротивление разветвлённых участков.
- •Зависимость давления и скорости течения крови от участка сосудистого русла.
- •Ламинарное и турбулентное течение. Число Рейнольдса.
- •Физические основы клинического метода измерения давления крови.
- •Пульсовые волны. Скорость распространения пульсовой волны.
- •Механические и электрические модели кровообращения.
- •Работа и мощность сердца. ( Ремизов а.Н. Стр.210-211)
- •Основные положения гемодинамики.
- •Затухающие колебания. Уравнение затухающих колебаний.
- •Коэффициент затухания. Декремент и логарифмический декремент затухания.
- •Акустика. Физические характеристики звука. Шкала интенсивности.
- •Характеристики слухового ощущения. Пороги слышимости.
- •Закон Вебера – Фехнера. Шкала громкости. Единицы измерения громкости.
- •Физика слуха.
- •Ультразвук. Основные свойства и особенности распространения. Действие ультразвука на биологические ткани. Ультразвук в диагностике.
- •63. Инфразвук. Физическая характеристика инфразвука. Биофизическое действие ультразвука. ((Рем.,стр168)
- •Электропроводность биологических тканей. Физические основы реографии. Импеданс биологических тканей.(Губанов: с.217-230)
- •Физические процессы в биообъектах под действием постоянных и переменных электрических полей.
- •Общая характеристика медицинской электронной аппаратуры.
- •Надежность и электробезопасность. Использование в диагностике и физиотерапии.
- •Электроды. Датчики. Их основные характеристики и требования к ним.
- •Структура и функции биологических мембран.
- •Методы исследования мембран. Рентгеноструктурный анализ. Электронная микроскопия.
- •Пассивный транспорт веществ через мембрану. Уравнение Теорелла. Уравнение Фика.
- •Простая и облегченная диффузия.
- •Электродиффузия. Уравнение Нернста – Планка.
- •Активный транспорт веществ через мембрану. Понятие о натрий – калиевом насосе.
- •Биопотенциалы.
- •Потенциал покоя. Природа потенциала покоя.
- •Уравнение Гольдмана – Ходжкина – Хаксли.
- •Потенциал действия. Генерация потенциала действия.
- •Распространение потенциала действия. Понятие о локальных токах. Кабельная теория распространения потенциала действия.
- •Особенности распространения потенциала действия в мякотных и безмякотных волокнах.
- •Биофизические принципы исследования электрических полей в организме. Понятие о токовом диполе.
- •Дипольный эквивалентный генератор сердца.
- •Генез электрокардиограммы. Особенности проведения возбуждения по миокарду.
- •Теория отведения Эйнтховена. Электрокардиография основывается на теории отведений Эйнтховена, которая позволяет судить о потенциалах сердца по потенциалам, снятым с поверхности тела.
- •Векторэлектрокардиография.
- •86. Интерференция света.
- •Интерферометры и их применение. Понятие об интерференционном микроскопе.
- •Дифракция света. Принцип Гюйгенса – Френеля.
- •Дифракционная решетка. Дифракционный спектр.
- •Понятие о голографии и ее применение в медицине.(Ремезов, с.435 - 438).
- •Поляризация света. Поляриметрия.(Ремезов, с.439 - 447).
- •92. Поглощение света. Закон Бугера-Бера
- •93. Поглощение света растворами. Закон Бугера-Бера-Бера. Концентрационная колориметрия. ("кк").
- •94. Фотобиологические процессы. Основые правила фотохимии.
01Краткий курс: Основные понятия теории вероятностей и математической статистики.
6. Основные понятия теории вероятности.
Теория вероятности ("ТВ") - раздел математики, который изучает закономерности, присущие случайным событиям массового характера.
Основными понятиями "ТВ" являются: событие - результат испытаний испытание - комплекс условий, при которых появляется данное случайное событие. Случайным называют событие, наступление которого нельзя достоверно предвидеть. Случайные события называются массовыми, если они в одинаковых условиях происходят одновременно в большом числе случаев, или многократно повторяются.
Основными характеристиками случайных событий являются относительная частота F(A) его появления, т.е. отношение числа m случаев, благоприятствующих данному событию к общему числу n возможных случаев: F(A) = m/n и вероятность события P(A) = m/n. Вероятность события А равна отношению числа m случаев благоприятствующих появлению события А, к общему числу возможных событий n - это классическое определение вероятности.
Для массовых случайных событий всегда можно определить среднюю относительную частоту их появления, которая является более или менее устойчивой при различных сериях наблюдений. Величина P(A), около которой колеблется относительная частота появления какого - либо события, называется его статистической вероятностью. Статистическое определение вероятности: Вероятность события А равна: Р(А) = lim m/n .
Понятие вероятности можно отнести и к одному событию, тогда ему дается следующее статистическое определение: вероятность случайного события есть предел, к которому стремится относительная частота его появления при неограниченном увеличении числа наблюдений.
Поскольку для любого события А число появлений m находится в пределах :
0
<
m
<
n
, то вероятность этого события Р(А) лежит
в пределах от 0 до 1.
События называют достоверными, если они происходят всегда, или вероятность которых равна единице. События называют невозможными, если они не происходят никогда, или вероятность которых равна нулю. События называют несовместимыми, если при каждом испытании появление одного из возможных событий исключает появление остальных. События называют совместимыми, если они могут происходить одновременно. События называют независимыми, если вероятность появления одного из них не зависит от наступления других событий. Событие В называется зависимым от события А, если его вероятность Р(В) меняется в зависимости от того, произошло событие А или нет. В этом случае вводится понятие условной вероятности, под которой понимается вероятность события В при условии, что событие А произошло. Обозначают это так: Р( В / А). Систему событий А1 А2 ..., Аn называют полной, если при каждом испытании обязательно наступает одно (и только одно ) из этих событий. Сумма вероятностей событий, составляющих полную систему, равна 1: Р(А1 ) + Р(А2 ) + ... + Р(Аn ) = 1. Два единственно возможных несовместимых события называют противоположными, если при каждом испытании обязательно происходит одно из них, или Р(А) + Р(А) = 1. Событие называют сложным, если оно состоит из одновременного наступления нескольких событий.
Теорема сложения: Вероятность появления при испытании одного ( любого ) из нескольких несовместимых событий Р ( А или В ) равна сумме их вероятностей: P( A или B) = P(A) + P(B)
Теорема умножения для независимых событий: Вероятность Р(А и В) сложного события, состоящего из совпадения двух независимых простых событий А и В, равна произведению вероятностей Р(А) и Р(В) этих событий: Р(А и В) = Р(А) Р(В).
Теорема умножения для зависимых событий: Вероятность Р(А и В) сложного события, состоящего из совпадения двух зависимых простых событий А и В (причем В зависит от А), равна произведению вероятности первого из них Р(А) на условную вероятность второго
Р(В / А) в предположении, что первое произошло: Р(А и В) = Р(А) Р( В / А).
Теорема о полной вероятности: вероятность события А, которое может произойти с одной из образующих полную группу гипотез (Н) равна сумме произведений вероятностей гипотез на вероятность события при каждой гипотезе: Р(А) = P(Hi) P(A/Hi).
Теорема Байеса: вероятность гипотезы в результате которой могло произойти данное событие равна отношению произведения вероятности гипотезы на вероятность события при данной гипотезе к вероятности события: P(Hi/A) = [P(Hi) P(A/Hi)]/ P(A).