
- •01Краткий курс: Основные понятия теории вероятностей и математической статистики.
- •6. Основные понятия теории вероятности.
- •Случайные величины и законы их распределения.
- •Числовые характеристики случайных величин.
- •Нормальный закон распределения.
- •Основные понятия математической статистики.
- •Точечная оценка случайной величины.
- •Интервальные оценки случайных величин.
- •Проверка статистических гипотез.
- •Параметрические и непараметрические критерии различия.
- •18. Сравнение двух статистических совокупностей. Критерий Стьюдента. Критерий Фишера.
- •Корреляционная зависимость. Коэффициент корреляции и его свойства. Уравнение регрессии.
- •20. Информация. Количество информации. Единицы количества информации.
- •21. Информационная энтропия. Формула Хартли и Шеннона.
- •22. Общая схема съема, передачи и регистрации информации.
- •23. Понятие о сенсорных системах. Абсолютные и дифференциальные пороги.
- •24. Элементы психофизики. Связь между изменением интенсивности ощущения с изменением силы раздражителя (законы Вебера, Вебера – Фехнера и Стивенса).
- •Предмет и метод биофизики. Связь биофизики с другими естественными науками.
- •Значение и особенности термодинамического метода изучения биологических систем. Первое начало термодинамики.
- •27.Обратимые и необратимые процессы. Энтропия. Термодинамическое толкование энтропии.
- •28. Статистическое толкование энтропии. Второе начало термодинамики.
- •Организм как открытая система. Понятие продукции и притока энтропии в открытых системах.
- •Понятие о стационарном состоянии. Критерий стационарности. Теорема Пригожина.
- •Постоянство внутренней среды организма.
- •Сравнение стационарного состояния и термодинамического равновесия.
- •Аутостабилизация стационарных систем. Принцип Ле – Шателье – Бауэра.
- •36. Биореология.
- •Вязкость жидкости. Уравнение Ньютона.
- •Ньютоновские и неньютоновские жидкости.
- •Реологические свойства крови, плазмы и сыворотки крови.
- •Методы измерения вязкости крови.
- •Физические основы гемодинамики.
- •Общие закономерности движения крови по кровеносному руслу.
- •Гидравлическое сопротивление сосудов. Гидравлическое сопротивление разветвлённых участков.
- •Зависимость давления и скорости течения крови от участка сосудистого русла.
- •Ламинарное и турбулентное течение. Число Рейнольдса.
- •Физические основы клинического метода измерения давления крови.
- •Пульсовые волны. Скорость распространения пульсовой волны.
- •Механические и электрические модели кровообращения.
- •Работа и мощность сердца. ( Ремизов а.Н. Стр.210-211)
- •Основные положения гемодинамики.
- •Затухающие колебания. Уравнение затухающих колебаний.
- •Коэффициент затухания. Декремент и логарифмический декремент затухания.
- •Акустика. Физические характеристики звука. Шкала интенсивности.
- •Характеристики слухового ощущения. Пороги слышимости.
- •Закон Вебера – Фехнера. Шкала громкости. Единицы измерения громкости.
- •Физика слуха.
- •Ультразвук. Основные свойства и особенности распространения. Действие ультразвука на биологические ткани. Ультразвук в диагностике.
- •63. Инфразвук. Физическая характеристика инфразвука. Биофизическое действие ультразвука. ((Рем.,стр168)
- •Электропроводность биологических тканей. Физические основы реографии. Импеданс биологических тканей.(Губанов: с.217-230)
- •Физические процессы в биообъектах под действием постоянных и переменных электрических полей.
- •Общая характеристика медицинской электронной аппаратуры.
- •Надежность и электробезопасность. Использование в диагностике и физиотерапии.
- •Электроды. Датчики. Их основные характеристики и требования к ним.
- •Структура и функции биологических мембран.
- •Методы исследования мембран. Рентгеноструктурный анализ. Электронная микроскопия.
- •Пассивный транспорт веществ через мембрану. Уравнение Теорелла. Уравнение Фика.
- •Простая и облегченная диффузия.
- •Электродиффузия. Уравнение Нернста – Планка.
- •Активный транспорт веществ через мембрану. Понятие о натрий – калиевом насосе.
- •Биопотенциалы.
- •Потенциал покоя. Природа потенциала покоя.
- •Уравнение Гольдмана – Ходжкина – Хаксли.
- •Потенциал действия. Генерация потенциала действия.
- •Распространение потенциала действия. Понятие о локальных токах. Кабельная теория распространения потенциала действия.
- •Особенности распространения потенциала действия в мякотных и безмякотных волокнах.
- •Биофизические принципы исследования электрических полей в организме. Понятие о токовом диполе.
- •Дипольный эквивалентный генератор сердца.
- •Генез электрокардиограммы. Особенности проведения возбуждения по миокарду.
- •Теория отведения Эйнтховена. Электрокардиография основывается на теории отведений Эйнтховена, которая позволяет судить о потенциалах сердца по потенциалам, снятым с поверхности тела.
- •Векторэлектрокардиография.
- •86. Интерференция света.
- •Интерферометры и их применение. Понятие об интерференционном микроскопе.
- •Дифракция света. Принцип Гюйгенса – Френеля.
- •Дифракционная решетка. Дифракционный спектр.
- •Понятие о голографии и ее применение в медицине.(Ремезов, с.435 - 438).
- •Поляризация света. Поляриметрия.(Ремезов, с.439 - 447).
- •92. Поглощение света. Закон Бугера-Бера
- •93. Поглощение света растворами. Закон Бугера-Бера-Бера. Концентрационная колориметрия. ("кк").
- •94. Фотобиологические процессы. Основые правила фотохимии.
20. Информация. Количество информации. Единицы количества информации.
Ожидаемым событиям присуща неопределенность, которая затем устраняется по мере поступления информации. Согласно Шеннону, информация – это мера того количества неопределенности, которая устраняется после получения сообщения. Информация – это совокупность сведений, сообщений о явлениях, процессах, предметах, привносящих новые знания об этих явлениях. Мерой неопределенности событий является энтропия.
Количество информации, содержащейся в сообщении, численно равно энтропии, исчезающей после получения сообщения.
Информационная энтропия имеет одинаковую размерность с информацией. Единицами количества информации являются: БИТ, ДИТ, НИТ (в зависимости от основания логарифма). БИТ – если основание логарифма 2, ДИТ - 10, а НИТ – когда это основание натурального логарифма. Бит – это количество информации, заключенное в сообщении о том, что произошло одно из двух равновероятных событий. 1000 байт называется килобайтом.
21. Информационная энтропия. Формула Хартли и Шеннона.
Энтропия является мерой неопределенности событий. Если система может находиться только в одном состоянии, то энтропия имеет минимальное значение равное нулю. Энтропия системы принимает максимальное значение в случае, если все состояния системы равновероятны. Информация, содержащаяся в сообщении, численно равна энтропии, исчезающей после получения сообщения.
Количество информации, соответствующее наступлению какого-либо одного из N равновероятных событий, рассчитывается по формуле Хартли: Н = log N = - logР. ( Так как Р = 1/ N = N -1)
Если события неравновозможные, то информационная энтропия рассчитывается по формуле К.Шеннона:
Н = - PilogPi , где Pi – вероятность i -того события.
22. Общая схема съема, передачи и регистрации информации.
Общая схема системы передачи информации состоит из: источника сообщения, кодирующего устройства, канала связи, декодирующего устройства и приемника сообщения. Каналом связи называется среда, по которой передаются сигналы. Канал связи характеризуется пропускной способностью. Пропускной способностью С канала связи называется максимальное количество информации, которое можно передать по каналу связи в единицу времени. Она находится по формуле: С = H / t [бит/с ]. Где Н – количество информации, а t – время, за которое оно было передано.
канал
Источник информации
Декодирующее
устройство
приемник
Кодирующее
устройство
связи
23. Понятие о сенсорных системах. Абсолютные и дифференциальные пороги.
СЕНСОРНЫМИ (чувствительными) называются системы, с помощью которых осуществляется процесс кодирования, передачи и обработки информации о внешних раздражениях.
Абсолютный порог - это минимальное значение силы стимула вызывающее ощущения.
Болевой или максимальный порог - максимальное значение силы стимула, вызывающее ощущение (выше этого уровня появляется чувство боли).
Дифференциальный порог - минимальное отличие между силой, действующих стимулов, при котором они воспринимаются как различные.
Дифференциальный временной порог – наименьшее время между действием двух раздражителей, при котором последние воспринимаются как раздельные.
Дифференциальный пространственный порог - наименьшее расстояние между раздражителями, при котором они воспринимаются как раздельные.