
- •Раздел 10. Основы анализа экспериментальных данных
- •29.2. Классификация погрешностей
- •30. Обзор программного обеспечения для выполнения анализа, обработки и представления экспериментальных данных
- •30.1. Математические (символьные) вычисления
- •30.2. Расчеты и статистическая обработка результатов
- •30.2.1. MathCad
- •30.2.2. Matlab - Scilab - Octave
- •30.3. Построение графиков
- •30.3.1. Sigma Plot
- •30.3.2. Origin
- •30.3.3. Gnuplot
- •30.4. Работа с текстом
- •30.4.1. Ms Word
- •30.4.2. OpenOffice.Org
- •31. Анализ результатов измерений случайной величины.
- •31.1. Гистограмма. Эмпирическое распределение результатов наблюдений
- •31.2. Результат измерения. Доверительный интервал
- •31.3. Нормальное или гауссово распределение
- •31.4. Выборочные дисперсия и среднеквадратичное отклонение
- •31.5. Среднеквадратичная ошибка среднего.
- •31.6. Приборная погрешность. Класс точности прибора.
- •31.7. Сложение случайной и приборной погрешностей. Полная погрешность измерения
- •31.8. Запись и округление результата измерения
- •32. Ошибки косвенных измерений
- •32.1. Функция одной переменной
- •32.2. Функция нескольких переменных
- •32.3. Ошибки и методика эксперимента
- •33. Анализ результатов совместных измерений
- •33.1. Цель и особенности эксперимента по определению функциональной зависимости
- •33.2. Некоторые определения
- •33.3. Интерполяция
- •33.3.1. Глобальная интерполяция
- •33.3.2. Локальная интерполяция
- •33.3.2.1. Кусочно-линейная интерполяция
- •33.3.2.2. Интерполяция кубическими сплайнами
- •33.3.2.3. Интерполирование b-сплайнами
- •33.4. Экстраполяция
- •33.5. Сглаживание данных
- •33.6. Регрессия
- •33.6.1. Выбор вида математической модели
- •33.6.2. Метод наименьших квадратов.
- •33.6.2.1. Линейная зависимость.
- •33.6.2.2. Линеаризация
- •33.6.2.3. Полиномиальная регрессия
- •33.6.2.4. Регрессия линейной комбинацией функций
- •33.6.2.5. Регрессия общего вида.
33.6.2. Метод наименьших квадратов.
Усреднение несовместных решений избыточной системы уравнений может быть произведено различными способами (на глаз, методом медианных центров и т. д.). Наиболее мощный метод был разработан в 1795-180 гг. Лежандром и Гауссом и получил название регрессионного анализа, или метода наименьших квадратов (МНК). Но теперь благодаря возможности широкого доступа исследователей к вычислительной технике этот метод получил второе рождение. Дело в том, что вычисления по МНК черезвычайно громоздки. С появлением компьютеров положение коренным образом изменилось. Программы обработки данных МНК содержатся в математическом обеспечении любого компьютера. Поэтому практически надо только ввести свои данные в соответствии с этой программой и дождаться готового ответа. Но чтобы представлять себе, что делает с нашими данными компьютер по программам МНК, рассмотрим сущность МНК на примере простейших задач.
Задача
аппроксимации решается следующим
образом. В декартовой прямоугольной
системе координат наносят точки (xi,
yi).
По расположению этих точек высказывается
предположение о принадлежности искомой
функции к определенному классу функций.
Например, линейная функция
,
квадратичная
и т.д. В общем случае
.
Неизвестные параметры функции
определяются из требования минимума
суммы квадратов случайных ошибок, т. е.
минимума величины
(33.12)
Величина
называется также суммарной невязкой.
Необходимым условием минимума функции
нескольких переменных является обращение
в нуль частных производных невязки:
. (33.13)
Отсюда и наименование: метод наименьших квадратов.
Решая систему уравнений (33.13), находим неизвестные параметры aj и тем самым полностью определяем функцию, которая наилучшим образом (в смысле наименьших квадратов отклонений от исходных точек или наименьшей суммарной невязки) аппроксимирует (приближает) искомую функцию .
33.6.2.1. Линейная зависимость.
Остановимся подробнее на линейной зависимости.
. (33.14)
Задача состоит в том, чтобы найти параметры m и c, при которых прямая наилучшим образом проходила бы через экспериментальные точки.
Линейная зависимость очень широко распространена в физике. И даже когда зависимость нелинейная, обычно стараются строить график так, чтобы получить прямую линию.
Допустим,
что имеется n
пар измеренных значений
,
,
…,
и предположим, что ошибки содержат лишь
величины y.
Такое предположение очень часто
оправдывается на практике. В противном
случае анализ существенно усложняется.
В случае параметров m и c отклонение в i -м измерении составляет
. (33.15)
Наилучшие значения m и c выбираются так, чтобы сумма
(33.16)
была минимальной.
. (33.17)
Таким образом, искомые величины m и c получаются решением системы уравнений
. (33.18)
Второе уравнение показывает, что наилучшая прямая проходит через точку с координатами
, (33.19)
т.е. через центр тяжести всех экспериментальных точек. Из уравнений находим
. (33.20)
Результат обработки данных линейной зависимостью методом наименьших квадратов средствами Mathcad показан на рисунках 33.14 - 33.14.
Рис. 33.14: Метод наименьших квадратов. Аппроксимация линейной зависимостью средствами Mathcad.