- •2011 Г. Вопросы:
- •Лекция №1.
- •Лекция№2 Классификация методов контроля и испытаний
- •Испытания
- •Лекция №3 Измерительные приборы Основные понятия и определения
- •Классификация измерительных приборов:
- •Сущность измерения Уравнение измерения.
- •Аналоговый и цифровой методы измерения.
- •Метод отклонения. Компенсационный (нулевой) метод.
- •Погрешности измерений и причины погрешностей
- •6 Лекция Погрешности, связанные с обработкой измеренных значений.
- •Характеристики погрешностей измерительных приборов.
- •Линейная регрессия.
- •Доверительные границы для коэффициента регрессии.
- •Линейная корреляция.
- •Измерение как процесс передачи сигналов
- •Измерительные сигналы и их математическое описание
- •Временные характеристики детерминированных измерительных сигналов
- •Временные характеристики стохастических сигналов
- •Корреляционная функция
Линейная регрессия.
В измерительной технике очень часто определяют зависимость одной переменной y от другой переменной x, и с помощью линейной регрессии исследуют линейную зависимость значений.
На частном примере (х – независимая, у – зависимая переменная) рассмотрим линейную регрессию. Например: при проверке величина воспроизводимая мерой является независимой, а показания проверяемого прибора - зависимой. Не смотря на то, что мы стремимся получить линейную зависимость, измеренные значения y, как правило, не лежат на прямой. В данном случае, это происходит потому, что имеется случайная погрешность измерений.
При исследовании статистических процессов, это обусловлено также и тем, что взаимосвязь является не функциональной, а лишь статистической.
Возникает вопрос, как провести искомую прямую, называемую прямой регрессии, через точки измерений, нанесенные на (х; у) диаграмму, или как ее рассчитать.
Исходя из того, что для определенного значения независимого распределения х, величина у нормально распределена относительно математического ожидания, лежащего на прямой, и что это нормальное распределение не зависит от значения переменной х, то можно применить метод наименьших квадратов. При этом рассматриваются не расстояния точек измерения от прямой, а разность ординат точек измерения и прямой.
Прямую, соответствующую минимальной сумме квадратов погрешности, с наибольшей вероятностью можно рассматривать, как искомую прямую генеральной совокупности и рассчитывать по следующей формуле:
,
,
y



x
Крутизна прямой (b), называется коэффициентом регрессии и рассчитывается следующим образом:

В результате получают оценку прямой, описывающую линейную зависимость.
Доверительные границы для коэффициента регрессии.
Процедура, определения доверительных границ, следующая:
Выбирают доверительную вероятность (р в процентах);
По графику распределения Стьюдента определяют с, как функцию c=f(p%; nf), где nf – число степеней свободы;
Вычисляют выражения:
;


Далее определяют доверительные границы для погрешности коэффициента регрессии:
;
(*)
Математическое ожидание β с р(%) лежат в области (*).
На
графике покажем доверительный интервал
для коэффициента b
линейной зависимости, определенный
таким расчетом:
y
x

y
x

Если
этот интервал включает β=0, то с выбранной
доверительной вероятностью, нет основания
утверждать, что действительный коэффициент
регрессии (b)
отличен от нуля. В этом случае считают,
что линейная зависимость не установлена
с достаточной достоверностью.
Дополнительная недостоверность состоит
в том, что среднее значение
также представляет собой лишь оценку
соответствующего математического
ожидания. Поэтому «недостоверность»
является положение прямой.
Линейная корреляция.
Если
пары значений
изучают с целью выявления линейной
зависимости и при этом х и у не рассматривают
как зависимые и независимые переменные,
то в этом случае говорят о корреляции.
Например, рост пар братьев и сестер –
статистически бессмысленно рассматривать:
рост одной – независимая, рост другой
– зависимая переменная. Также постановка
вопроса имеет место при сопоставлении
давление, температура и др. в различных
местах.
Изобразим положение переменных регрессии при различной степени линейной статистической связи пар значений (х; у).
А)
у
х
Б)
у












х
В)у








х
Если
пару значений
нанести на (х; у) диаграмму и искать
прямую, которая изображает возможную
линейную зависимость, то можно использовать
метод наименьших квадратов. Правда
теперь имеет смыслb1
и b2
(две
прямые) так как каждая переменная в
равной мере может быть рассмотрена, как
зависимая и как независимая.
Если
рассматривать функцию
,,
то коэффициент b1
выбирают так, чтобы сумма всех квадратов
была бы минимальной, однако с теми же
основаниями у может рассматриваться
как свободная переменная, тогда
коэффициент b2
функции
выбирают так, чтобы минимальной была
сумма всех квадратов
.
В общем случае (а), прямые не совпадают, можно показать, что b1 и b2, тем сильнее стремятся к нулю, чем более независимы х и у. При полной статистической независимости, прямые перпендикулярны b1=b2=0 (б).
Если имеет место функциональная зависимость, то b1=1/b2 и обе прямые регрессии совпадают.
Коэффициенты регрессии, в зависимости от тесноты статистической связи изменяются между нулем и значением крутизны, соответствующей функциональной зависимости. Поэтому значения b1 и b2 в какой-то мере отражают тесноту линейной связи, но полностью охарактеризовать ее не могут, так как не зафиксирована верхняя граница b. Этого можно достичь, по средствам нормирования, следующим образом:
,
где r
– коэффициент корреляции.
r
может принимать значения от минус 1 до
плюс 1. При строгой функциональной связи
лежат на прямой. При положительном
коэффициенте угла наклона прямойr=+1,
при отрицательном r=-1.
Если х и у полностью статистически независимы, то r=0. Модуль коэффициента r, является мерой линейной зависимости, чем ближе пара значений расположения к прямой, тем больше |r|→1.
Замечания:
Из
рассмотренного вытекает: если две
величины независимы друг от друга, то
они не коррелированны и равны нулю. Если
пары значений
лежат на прямой, тоr=1.
Обратные утверждения в общем случае не
верны.
Если r=0, то это означает что имеется отсутствие линейной зависимости, то х и у вообще не зависят друг от друга.
Если r=1, то из этого не следует, что зависимость х и у линейна, а следовательно только то, что эти величины зависят друг от друга.
r используется как мера линейной зависимости, то необходимо учитывать, что r зависит от объема выборки n. Очевидно, что при наличии только двух пар значений, величина r всегда равна 1. Однако, как можно видеть при определении доверительных границ при малых n, доверительный интервал увеличивается при использовании r в качестве статистической характеристики, только при двух пар значений недопустимо.
Если пары значений лежат вблизи прямой, то из этого что r принимает значения близкие к ±1, не следует что эта линейная зависимость отображает также причинно-следственную связь.
Весьма вероятно, что имеется корреляция между числом краж и числом автомобилей в стране, возможно, что такая мнимая, лишенная смысла корреляция происходит от того, что коррелирующие явления имеют общую причину, но так бывает далеко не всегда. Гипотеза, о наличии причинно-следственной связи должна быть обусловлена в каждом отдельном смысле. Корреляция показывает лишь, не противоречат ли полученные результаты гипотезе.
Коэффициент
корреляции r
рассчитан по исходному уравнению
характеризует корреляцию выборки может
быть использован в качестве оценки
математического ожидания
коэффициента корреляции генеральной
совокупности. При этом возникает задача
статистической достоверности этого
коэффициента. При этом проверяют,
является ли отличнымr
от нуля, статистически значимым.
