- •Измерения. Запись и обработка результатов. Оценка погрешностей
- •§ 1. Измерения и их погрешности
- •§ 2. Случайные и систематические погрешности
- •§ 3. Случайные погрешности
- •§ 4. Систематические погрешности
- •§ 5. Сложение случайных и систематических погрешностей
- •§ 6. Обработка результатов при косвенных измерениях
- •§ 7. Запись результатов. Точность расчетов
- •§ 8. Изображение экспериментальных результатов на графиках
- •§ 9. Проведение кривых через экспериментальные точки
- •§ 10. Определение искомых параметров по результатам измерений
- •§ 11. Проведение наилучшей прямой аналитическим методом
- •§ 12. Пример графической обработки экспериментальных данных
- •§ 13. Пример аналитической обработки экспериментальных данных
- •§ 14. Заключение
- •Сводка формул
- •Приложение обработка результатов наблюдения § 1. Распределение Пуассона
- •§ 2. Распределение Гаусса
- •§ 3. Метод наименьших квадратов
- •§ 4. Критерии значимости. Метод χ2.
- •§ 5. Поправки на мертвое время счетчиков и электронной аппаратуры
- •§ 6. Поправки на случайные совпадения
§ 3. Метод наименьших квадратов
Метод наименьших квадратов позволяет находить по результатам эксперимента наилучшие значения параметров, входящих в формулы, вид которых считается известным. Пусть, например, исследуется растяжение тела. Обозначим значения приложенной к телу силы через yi (i –номер опыта), а значения удлинений – через xi. Считается известным, что сила, действующая на образец, и его удлинение связаны между собой законом Гука:
y = kx. (П.11)
Неизбежные погрешности опыта приводят к тому, что точки (xi, yi) не лежат на одной прямой. Метод наименьших квадратов позволяет найти наилучшее значение k аналитическим методом. В качестве такого значения в методе наименьших квадратов принимается значение, при котором величина
(П.12)
(σi – среднеквадратичная погрешность i-го измерения) имеет минимум. Иначе говоря, ищется значение k, при котором dφ/dk обращается в нуль. Имеем:
. (П.13)
Легко видеть, что мы пришли к линейному относительно k выражению, которое легко может быть решено. Приведем результат для случая, когда все σi равны друг другу. Из (П.13) следует в этом случае:
.
Разделив обе части этого уравнения на п, получим:
,
где угловые скобки, как обычно, обозначают средние значения. Из этого уравнения находим:
. (П.14)
Формула (П.14) определяет k с некоторой погрешностью, величина которой может быть оценена по разбросу экспериментальных данных. Вычисления дают:
. (П.15)
В формулу (П.15) следует подставлять значение k, полученное из (П.14).
Аналогичным образом могут быть получены формулы для случая, когда стандартные погрешности σi не равны друг другу, и формулы для определения параметров в формулах более сложных, чем (П.11). Формулы для определения параметров в формуле
y = a + bx. (П.16)
приведены выше.
Скажем несколько слов о случаях, когда зависимость y от x описывается более сложными формулами, например функцией произвольного вида:
у = f(x, а, b, с, ...), (П.17)
где а, b, с, ... – искомые параметры.
Если погрешности измерения величины yi описываются законом Гаусса, то решение задачи находится путем отыскания минимума величины
, (П.18)
для чего приравниваются нулю частные производные dφ/da, dφ/db, dφ/dc и т. д. Легко видеть, что при этом возникает столько уравнений сколько имеется подлежащих определению величин а, b, с, ... Эти уравнения в общем случае нелинейны и могут быть решены только численно.
Если погрешности в измерении yi не описываются законом Гаусса, то задача становится еще более сложной и приводится к отысканию экстремума функций существенно более сложных, чем (П.18). Соответствующий метод носит название метода наибольшего правдоподобия. Мы этого случая рассматривать не будем.
В том случае, когда в формуле подбирается не один, а несколько параметров, решение приобретает новые важные черты. Погрешности параметров обычно оказываются связанными друг с другом: отклонения сразу по двум параметрам – при определенном соотношении между ними – могут оказаться более вероятными, чем отклонение только по одному параметру. При решении одномерной задачи указывают среднеквадратичную погрешность – погрешность, которая при гауссовом распределении превышается, как мы уже отмечали, приблизительно в одной трети случаев. В двумерной задаче нужно в плоскости искомых параметров проводить кривую, выделяющую соответствующую область. При гауссовых распределениях эта кривая является эллипсом. Как известно, величина и положение эллипса определяются не двумя, а тремя числами, например размерами его полуосей и углом их поворота. При измерениях, в которых следует определить два параметра, задание погрешностей требует поэтому, строго говоря, указания не двух, а трех чисел, которые образуют квадратную симметричную «матрицу ошибок».
Мы не будем более развивать эту тему и отошлем интересующихся к литературе.