- •Лекция № 1. Вводная лекция
- •1.1Материя и формы движения материи. Физика, ее предмет и методы исследования.
- •Диаграмма иерархической организации материи
- •1.2. Биофизика. Значение физики и биофизики для биологии и медицины.
- •1.3. Связь физики с другими естественными науками. Содержание медицинской и биологической физики.
- •Лекция № 2. Системный подход и системный анализ в физике и биофизике
- •2.1. Понятие системы. Элементы системы и виды связи между ними
- •2.2. Кибернетические системы.
- •2.3.Системный анализ.
- •Система: законы поведения, свойства
- •Лекция № 3 методы численного анализа причинно-следственных связей.
- •Элементарный метод.
- •Метод регрессии
- •3.3 Метод корреляции.
- •Анализ с использованием показателей эластичности.
- •Лекция № 4. Моделирование.
- •Модели и их назначение.
- •Виды моделей.
- •4.3.Основные этапы математического моделирования.
- •Высшая математика. Занятие № 1. Теория пределов.
- •§ 1.1 Бесконечно малая и бесконечно большая величины.
- •§ 1.2. Предел переменной величины.
- •§ 1.3. Понятие о пределе функции. Некоторые приемы нахождения пределов функций.
- •Упражнения
- •Занятие №2. Производная функции
- •§ 2.1 Производная функции и метод ее нахождения
- •§ 2.2 Физический смысл производной функции.
- •2.3 Геометрический смысл производной.
- •§ 2.4 Производные второго и высших порядков. Механический смысл второй производной.
- •§ 2.5 Правило нахождения максимума и минимума функции.
- •§ 2.6 Построений графиков функций
- •Упражнения.
- •Занятие №3. Дифференциал функции.
- •§3.1 Дифференциал функции как главная часть приращения функции.
- •§ 3.2 Геометрический смысл дифференциала функции.
- •§ 3.3 Дифференциал второго порядка.
- •§ 3.4 Приложения дифференциала функции к приближенным вычислениям.
- •§ 3.5 Функции многих переменных. Предел функции.
- •§ 3.6 Частные производные. Полный дифференциал функции нескольких переменных.
- •Упражнения
- •Занятие №4. Неопределенный интервал.
- •§ 4.1 Понятие о неопределенном интеграле.
- •§ 4.2 Геометрический смысл неопределенного интеграла.
- •§ 4.3 Основные свойства неопределенного интеграла.
- •§ 4.4 Непосредственное интегрирование.
- •§ 4.5 Основные методы интегрирования.
- •Интегрирование методом разложения с использованием элементарных математических операций.
- •Интегрирование методом замены переменной.
- •Интегрирование по частям.
- •Упражнения.
- •2)Найти интегралы методом подстановки:
- •3.Найти интегралы методом интегрирования по частям:
- •§ 5.1 Определенный интеграл и его геометрический смысл.
- •Простейшие свойства определенного интеграла.
- •§ 5.2 Формула ньютона-лейбница.
- •§5.3. Замена переменной и интегрирование по частям в определенном интеграле.
- •Интегрирование по частям.
- •§5.4 Некоторые сведения о рядах и их использование в процессе интегрирования.
- •Признак Даламбера.
- •Разложение в степенной ряд функции.
- •Понятие об интегралах, не берущихся в элементарных функциях.
- •Приближенное вычисление интегралов методом разложения функции в ряд.
- •§5.5 Несобственные интегралы.
- •§ 5.6 Приближенные методы вычисления определенных интегралов.
- •Метод средних прямоугольников.
- •Метод трапеций.
- •Метод параболических трапеций (метод Симпсона).
- •§5.7 Приложения определенного интеграла Вычисление площади в декартовых координатах.
- •Объем тела вращения.
- •Длина дуги кривой.
- •Площадь поверхности тела вращения.
- •Упражнения.
- •Занятие № 6. Основные сведения о дифференциальных уравнениях.
- •§ 6.1 Общие понятия о дифференциальных уравнениях и их определение.
- •§6.2 Дифференциальные уравнения первого порядка с разделенными и разделяющимимся переменными.
- •§6.3 Однородные дифференциальные уравенния первого порядка.
- •§6.4 Линейные дифференциальные уравнения первого порядка.
- •§ 6.5 Дифференциальные уравнения второго порядка уравнения вида
- •§ 6.6 Комплексные числа и их алгебраическая форма.
- •§ 6. 7 Линейные однородные дифференциальные уравнения второго порядка с постоянными коэффициентами.
- •Рассмотрим эти случаи по порядку.
- •Упражнения.
- •Задачи.
- •Математическая статистика. Занятие № 1. Элементы комбинаторики. Бином ньютона.
- •§ 1.1. Множества
- •§ 1.2 Размещения
- •§ 1.3. Перестановки.
- •§1.4. Сочетания
- •1.5. Бином ньютона
- •Свойства разложения степени бинома.
- •Упражнения.
- •Занятие №2. Элементы теории вероятностей.
- •§ 2.1. Событие. Вероятность события.
- •§ 2.2. Основные теоремы теории вероятностей.
- •Теорема сложения вероятностей.
- •Теорема умножения вероятностей.
- •Условная вероятность.
- •Формула полной вероятности.
- •§ 2.3. Формула байеса (теорема гипотез)
- •§ 2.4. Формула бернулли.
- •§2.5. Теория вероятностей в генетике.
- •Примеры решения задач.
- •Упражнения
- •Занятие № 3 случайные величины и их основные характеристики.
- •§ 3.1. Случайная величина. Функция распределения.
- •Свойства интегральной функции распределения.
- •§ 3.2. Числовые характеристики случайных величин.
- •Характеристики разброса.
- •Моменты. Характеристики формы.
- •Упражнения.
- •Занятие № 4. Законы распределения случайных величин.
- •§ 4.1. Основные задачи математической статистики.
- •§ 4.2. Генеральная совокупность и выборка.
- •§ 4.3. Ряды распределения.
- •§ 4.4. Закон нормального распределения (закон гаусса)
- •§ 4.5 Распределение стьюдента.
- •§4.6. Оценка точности прямых равноточных измерений при малом числе опытов
- •Упражнения
- •Занятие № 5. Временные ряды
- •§ 5.1. Временные ряды и их виды.
- •§5.2. Характеристики динамики как единицы абсолютного и относительного измерения.
- •§5.3. Сущность и формы тренда и приемы выявления тенденции развития.
- •§5.4. Интерполяция и экстраполяция рядов динамики.
- •Контрольные вопросы.
- •Упражнения.
- •Используемая литература.
- •Оглавление
- •Высшая математика
- •Математическая статистика
- •Основы высшей математики и математической статистики
3.3 Метод корреляции.
Корреляционные расчеты при изучении связи следствия с одной или несколькими причинами дополняют регрессию. При расчете регрессии влияние второстепенных причин исключают, чтобы подчеркнуть влияние основных причин, сущность связи. При корреляционном расчете исходят из реальной картины проявления связи, отделяют влияние основных причин от второстепенных, используя данные о распределении, обусловленном всеми причинами. При регрессивном анализе связь характеризуют коэффициентами ( а и b) регрессии, по уравнению регрессии подсчитывают теоретические знания. При корреляционном анализе связь характеризуют показателем, который определяет тесноту (интенсивность) связи. Корреляционные расчеты проводят в следующих целях:
1. Проверить, насколько эффективно уравнение регрессии представляет (модулирует) связь.
2. Достаточно ли в уравнении регрессии учтены основные причины, учитывая их силу влияния на следствие, чтобы путем регрессии отразить суть связи, или для рассмотрения связи необходимо привлечь другие причины для раскрытия более тесной связи.
3. При корреляционных расчетах следует учитывать особенности связи явлений, так как они влияют на содержание и смысл показателя.
При непосредственной коррелиции исследуемые параметры находятся в отношении «причина- следствие», например зависимость гидродинамического сопротивления от вязкости крови. При косвенной корреляции оба исследуемых параметра зависят от третьего, например, от наличия концентрации аспирина в крови. При ложной корреляции исследуемые параметры не связаны друг с другом. Путем корреляционных расчетов по числовым данным о параметрах можно получить показатель, который стимулирует связь, в действительности не существенную, например, связь гидродинамического сопротивления кровеносной системы со скоростью распространения света в среде. Показателями корреляции являются мера определенности и коэффициент корреляции. Мера определенности имеет целью количественно оценить тесноту связи относительной величиной. Исходным для установления меры определенности является дисперсия теоретической величины Y относительно средней, т.е.
(3.12)
Этот показатель вариации сопоставляется с общей вариацией исходного распределения и получают меру определенности:
B=
,
(3.13)
где Yi – значение, рассчитанное по уравнению регрессии,
yi- экспериментальные значения,
-среднее значение, рассчитанное по экспериментальным данным.
Общая вариация включает отклонения эмпирических величин от теоретических и отклонения теоретических величин от средней.
Так как вариация
теоретических величин относительно
средней, называемой вариацией по линии
регрессии, является только частью всей
вариации эмпирических величин, мера
определенности может находиться только
в интервале 0
.
Чем ближе он к единице, тем лучше избранная
функция подходит для описания
действительной связи. Если мера
приближается к нулю, то никакой связи
нет или она очень сильно нарушена. Меру
определенности можно рассчитывать и
по вариации эмпирических величин
относительно рассчитанных по уравнению
регрессии:
Если этот показатель вариации сравнить с общей вариацией, то получим меру неопределенности:
(3.14)
Из сказанного о составе общей вариации эмпирических величин следует, что B+U=1. Следовательно, меру определенности можно рассчитать и с использованием следующего выражения:
(3.15)
Коэффициент корреляции r рассчитывают из меры определенности, извлекая из нее положительный корень, т.е.
r
1
а)
(3.16)
r<1 или
б)
(3.17)
r=0
в)
Рис. 3.1 Корреляционная связь
Из тесной связи коэффициента корреляции с мерой определенности следует, что в отличие от меры определенности он является линейным показателем тесноты между причиной и следствием.
Коэффициент
корреляции – это вариационный безразмерный
коэффициент, который может принимать
значение
.
Чем ближе коэффициент к единице, тем
теснее связь, и наоборот (рис.3.1 а, б, в).
Положительное значение коэффициента
r
(рис. 3.1 а-1)
или отрицательное (рис. 3.1 а -2) характеризуют
направление корреляционной зависимости.
Его, как и меру определенности, можно
рассчитать и для линейных и для нелинейных
связей. Поэтому он применим независимо
от типа функции.
Коэффициентом корреляции пользуются для того, чтобы получить сведения о зависимости следствия от различных причин, и чтобы применить как основную. Если для регрессионных расчетов использовано несколько типов функции лучше описывает связь.
Множественный регрессионный и корреляционный анализ соответствует объективно существующему взаимодействию многих причин (хi), которые вместе определяют величину следствия у.
Так, например, с двумя основными причинами при линейной связи функция регрессии будет иметь вид:
(3.18)
Коэффициенты a, b1, b2 находятся методом наименьших квадратов.
При линейной множественной корреляции исходят из парных коэффициентов корреляции и получают:
(3.19)
где
-
множественный коэффициент корреляции,
который измеряет связь между тремя
явлениями.
