Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

TheoryOfExperiment_2

.pdf
Скачиваний:
8
Добавлен:
28.04.2017
Размер:
1.75 Mб
Скачать

БЕЛОРУССКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ ХИМИЧЕСКИЙ ФАКУЛЬТЕТ Кафедра физической химии

А. В. Блохин

ТЕОРИЯ ЭКСПЕРИМЕНТА Часть 2. Методы корреляционного и регрессионного анализа. Дисперси-

онный анализ. Планирование и оптимизация эксперимента.

Учебное пособие (лекции) по специальному курсу “Теория эксперимента” для студентов по специальности Н.03.01.00 “Химия”,

специализация — “Физическая химия”

В авторской редакции

МИНСК

2002

2

Автор-составитель: Блохин Андрей Викторович, кандидат химических наук,

доцент кафедры физической химии Белорусского государственного университета.

Рецензенты:

доцент кафедры неорганической химии Белорусского государственного университета, кандидат химических наук Н.Н. Горошко; старший преподаватель кафедры физической химии Белорусского государственного университета Л.М. Володкович.

Утверждено на заседании Ученого совета химического факультета 29 марта 2002 г., протокол № 5.

 

 

3

 

СОДЕРЖАНИЕ

 

ЛЕКЦИЯ 7.........................................................................................................................

4

1.

Системы случайных величин. Функция и плотность распределения

 

системы двух случайных величин. Условные законы распределения. ...................

4

2.

Стохастическая связь. Ковариация. Коэффициент корреляции. Регрессия........

5

3.

Выборочный коэффициент корреляции. Проверка гипотезы об отсутствии

 

корреляции. ....................................................................................................................

7

4.

Приближенная регрессия. Метод наименьших квадратов....................................

8

ЛЕКЦИЯ 8.......................................................................................................................

11

1.

Линейная регрессия от одного параметра. ...........................................................

11

2.

Регрессионный анализ. ...........................................................................................

12

3.

Оценка тесноты нелинейной связи........................................................................

15

4.

Аппроксимация. Параболическая регрессия. .......................................................

15

5.

Приведение некоторых функциональных зависимостей к линейному виду. ...

16

6.

Метод множественной корреляции. ......................................................................

17

ЛЕКЦИЯ 9.......................................................................................................................

20

1.

Задача дисперсионного анализа. Однофакторный дисперсионный анализ. .....

20

2.

Двухфакторный дисперсионный анализ...............................................................

23

ЛЕКЦИЯ 10.....................................................................................................................

27

1.

Планирование эксперимента при дисперсионном анализе.................................

27

2.

Постановка задачи при планировании экстремальных экспериментов. ...........

29

3.

Полный факторный эксперимент типа 22: матрица планирования,

 

вычисление коэффициентов уравнения регрессии. .................................................

30

ЛЕКЦИЯ 11.....................................................................................................................

33

1.

Матрица планирования полного факторного эксперимента типа 23. ................

33

2.

Проверка значимости коэффициентов и адекватности уравнения

 

регрессии, полученных при обработке результатов ПФЭ 22 и 23...........................

34

3.

Дробный факторный эксперимент. Планы типа 2k-1............................................

37

ЛЕКЦИЯ 12.....................................................................................................................

40

1.

Оптимизация методом крутого восхождения по поверхности отклика. ...........

40

2.

Описание функции отклика в области, близкой к экстремуму.

 

Композиционные планы Бокса-Уилсона. .................................................................

41

3.

Ортогональные планы второго порядка, расчет коэффицентов уравнения

 

регрессии. .....................................................................................................................

44

4.

Метод последовательного симплекс-планирования............................................

46

4

КОРРЕЛЯЦИОННЫЙ И РЕГРЕССИОННЫЙ АНАЛИЗ

ЛЕКЦИЯ 7

Системы случайных величин. Функция и плотность распределения системы двух случайных величин. Условные законы распределения. Стохастическая связь. Ковариация. Коэффициент корреляции, его свойства. Линии регрессии. Выборочный коэффициент корреляции; проверка гипотезы об отсутствии корреляции. Приближенная регрессия; метод наименьших квадратов.

1. Системы случайных величин. Функция и плотность распределения системы двух случайных величин. Условные законы распределения.

На практике чаще всего приходится иметь дело с экспериментами, результатом которых является не одна случайная величина, а две и более, образующие систему. Свойства системы случайных величин не ограничиваются свойствами величин, в нее входящих; они определяются также взаимосвязью (зависимостями) этих случайных величин. Информация о каждой случайной величине, входящей в систему, содержится в ее законе распределения.

Рассмотрим систему из двух случайных величин Х и Y (Х, Y). Функцией распределения такой системы называется вероятность совместного выполнения двух

неравенств:

 

F(x, y)= P (X < x, Y < y)

(1.1).

Плотность распределения системы f (x, y) определяется как вторая смешанная производная F(x, y):

f(x, y)= 2 F(x, y)

x y

Вероятность попадания точки (Х, Y) в произвольную область D равна

P[(X ,Y ) D]= ∫∫ f (x, y)dx d y

(D)

Свойства плотности распределения:

1. Она является неубывающей функцией:

f (x, y)0

(1.2).

(1.3).

(1.4).

2. Вероятность попадания случайной точки на всю координатную плоскость равна вероятности достоверного события:

+∞ +∞

 

 

∫ ∫ f (x, y)dx d y =1

(1.5).

−∞ −∞

 

 

3. Функция распределения выражается через плотность распределения как

 

x

y

 

F (x, y)=

f (x, y)dx d y

(1.6).

∞ −∞

4.Плотность распределения каждой из случайных величин можно получить сле-

дующим образом:

 

 

 

x

+∞

 

F1(x)= F(x, )

=

f (x, y)dx d y

(1.7),

 

dF (x)

−∞ −∞

 

f (x)=

 

+∞

f (x, y)d y

 

dx

 

 

 

1

 

=

 

(1.8),

1

 

 

 

 

 

 

−∞

(2.2).

5

 

dF (y)

+∞

 

f2 (y)=

2

 

= f (x, y)dx

(1.9).

d y

 

−∞

 

Для того, чтобы полностью охарактеризовать систему (получить ее закон распределения), кроме распределения каждой величины, входящей в систему, необходимо знать и связь между этими величинами. Эта зависимость характеризуется с помощью условных законов распределения. Условным законом распределения величины Y, входящей в систему (X, Y), называется ее закон распределения при условии, что другая случайная величина Х приняла определенное значение х. Условная функция распределения обозначается F(y/x), плотность распределения —

f (y/x). Для условных плотностей распределений справедлива теорема умножения законов распределения:

f (x, y)= f (x)f (y / x)

(1.10),

f (x, y)= f21

(y)f (x / y)

(1.11).

Тогда

f (x, y)

 

 

f (x, y)

 

f (y / x)=

==

(1.12),

f1(x)

 

 

 

 

 

 

 

f (x, y)d y

 

f (x / y)=

f (x, y)

==

−∞ f (x, y)

(1.13).

f2 (y)

 

 

 

 

 

 

 

 

f (x, y)dx

 

−∞

2. Стохастическая связь. Ковариация. Коэффициент корреляции. Регрессия.

Стохастической связью между случайными величинами называется такая связь, при которой с изменением одной величины меняется распределение другой. Функциональной зависимостью называется такая связь между случайными величинами, при которой при известном значении одной из величин можно точно указать значение другой. В отличие от функциональной связи, при стохастической связи при изменении величины Х величина Y лишь имеет тенденцию изменяться. По мере увеличения тесноты стохастической зависимости она все более приближается к функциональной, а в пределе ей соответствует. Крайняя противоположность функциональной связи — полная независимость случайных величин.

Если случайные величины независимы, то, используя теорему умножения: f (y / x)= f2 (y) и f (x / y)= f1(x) (2.1),

f (x, y)= f1(x) f2 (y)

Условие (2.2) можно использовать в качестве необходимого и достаточного критерия независимости двух случайных величин, если известны плотности распределения системы и случайных величин, в нее входящих.

При неизвестном законе распределения системы для оценки тесноты стохастической связи чаще всего используется коэффициент корреляции. Дисперсия суммы двух случайных величин X и Y равна

D{X +Y}= M {[X +Y M (X +Y )]2 }= M {[X M (X )+Y M (Y )]2 }=

 

= M [X M (X )]2 + 2M {[X M (X )][Y M (Y )]}+ M [Y M (Y )]2 =

 

= D(X )+ 2M {[X M (X )][Y M (Y )]}+ D(Y )

(2.3).

6

Если X и Y независимы, то D(X +Y )= D(X )+ D(Y ). Тогда зависимость между X и

Y существует, если

 

M {[X mx ][Y my ]}0

(2.4).

Величина (2.4) называется корреляционным моментом, моментом связи или кова-

риацией cov{XY}, (covxy) случайных величин. Она характеризует не только зависимость величин, но и их рассеяние. Из (2.4) следует, что если одна из величин мало отклоняется от своего математического ожидания, то ковариация будет мала даже при тесной стохастической связи. Чтобы избежать этого затруднения, для характеристики связи используют безразмерную величину, называемую коэффици-

ентом корреляции:

r

=

covxy

=

M {[X mx ][Y my ]}

(2.5),

 

σxσy

 

xy

 

σxσy

 

где σx и σy — стандартные отклонения X и Y. Случайные величины, для которых ковариация (значит, и коэффициент корреляции) равна нулю, называются некоррелированными. Равенство нулю коэффициента корреляции не всегда означает, что случайные величины X и Y независимы: связь может проявляться в моментах более высокого порядка (по сравнению с математическим ожиданием). Только в случае нормального распределения при rxy = 0 связь между случайными величинами однозначно отсутствует.

Плотность нормального распределения системы двух случайных величин выражается формулой (2.6)

 

 

 

1

 

 

 

1

 

(x m

 

2

 

2r(x mx )(x my )

 

2

 

 

f (x, y)=

 

 

 

 

 

 

x

)

 

 

(y my )

 

,

 

 

 

 

 

exp

 

 

 

 

 

 

+

 

 

 

 

 

1

r 2

 

σ2x

 

 

σxσy

σ2y

2πσ

x

σ

y

 

2(1r 2 )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

где r — коэффициент корреляции. Если X и Y некоррелированы (r = 0), то из (2.6) следует, что

 

 

 

 

 

1

 

 

 

1

 

(x m

 

2

 

 

 

2

 

 

 

 

 

 

 

f (x, y)=

 

 

 

 

 

x

)

 

(y my )

 

 

=

 

 

 

 

 

 

 

exp

 

 

 

 

σ2

 

+

σ2

 

 

 

 

 

 

 

 

2πσx σy

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

x

 

 

 

y

 

 

 

 

 

 

 

 

1

 

 

(x m

 

)2

 

 

 

 

 

 

(x

my )2

 

 

 

 

 

 

=

 

 

exp

 

x

 

 

 

 

 

 

exp

 

 

 

=

 

f (x)f

2

(y)

(2.7),

 

 

 

 

 

 

 

 

 

 

 

 

2πσ

x

 

2σ2

 

2πσ

y

 

 

 

 

2σ2

 

 

 

1

 

 

 

 

 

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

y

 

 

 

 

 

 

 

следовательно, нормально распределенные случайные величины X и Y не только некоррелированы, но и независимы.

Отметим следующие свойства коэффициента корреляции:

1.Величина rxy не меняется от прибавления к X и Y неслучайных слагаемых.

2.Величина rxy не меняется от умножения X и Y на положительные числа.

3.Если одну из величин, не меняя другой, умножить на –1, то на –1 умножится и коэффициент корреляции.

Следовательно, если от исходных величин перейти к нормированным

X 0 = X mx , Y0 = Y my ,

σx σy

то величина rxy не изменится: rx o yo = r xy . Из (2.3) и (2.5) следует, что

σ2 (X +Y ) = σ2 (X ) + σ2 (Y ) + 2r xy σ2 (X ) σ2 (Y )

(2.8).

Для нормированных величин σ2(X0) = σ2(Y0) = 1, тогда

7

σ2 (X

0

+Y ) = 2 + 2r

(2.9).

 

0

xy

 

Аналогично в случае разности (X Y) можно получить, что

 

σ2 (X

0

Y ) = 2 2r

(2.10).

 

0

xy

 

По определению дисперсии: σ2(X0 + Y0) 0 и σ2(X0 - Y0) 0, тогда

 

2 + 2rxy 0 , 2 2rxy 0 ,

 

rxy ≥ −1, rxy 1,

 

 

1 rxy

1

(2.11).

При rxy = ±1, имеем линейные функциональные зависимости y = b0 +b1x ,

при этом если rxy = 1, то b1 > 0; если rxy = -1, то b1 < 0.

Если мeжду величинами X и Y имеется произвольная стохастическая связь,

то –1 < rxy < 1. При rxy > 0 говорят о положительной корреляционной связи между

X и Y, при rxy < 0 — об отрицательной. Следует учитывать, что коэффициент корреляции характеризует не любую зависимость, а только линейную.

Для нормально распределенной системы двух случайных величин можно доказать, что

f (y / x)

=

f (x, y)

=

 

1

 

 

 

 

 

 

 

1

 

 

y my

r

x m

 

2

 

=

f

(x)

 

 

 

 

 

 

exp

 

 

 

 

σ

 

 

σ

 

 

x

 

 

 

 

 

σy

1r

2

2π

 

 

 

2(1

r

2

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

)

 

y

 

 

 

x

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

σy

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=

 

 

 

 

 

 

exp

 

2

 

2

 

my r

 

 

 

 

 

 

 

 

(2.12).

σy 1r

2

2π

 

2(1r

) σ

y

σ

 

(x mx )

 

 

 

 

 

 

 

 

 

y

 

 

 

 

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Условная плотность распределения величины Y соответствует плотности нормального распределения с математическим ожиданием

my/x = my + r

σy

(x mx )

(2.13),

 

 

σx

 

и среднеквадратичным отклонением

σy/x = σy 1r 2

(2.14).

Величина my/x называется условным математическим ожиданием величины Y при данном Х. Линейная зависимость (2.13) — регрессией Y на X. По аналогии, прямая

mx/y = mx + r

σx

(y my )

(2.15)

σy

 

 

 

есть регрессия X на Y. Линии регрессии совпадают только при наличии линейной функциональной зависимости. Из (2.13) и (2.15) видно, что для независимых X и Y линии регрессии параллельны координатным осям.

3. Выборочный коэффициент корреляции. Проверка гипотезы об отсутствии корреляции.

При обработке результатов большинства физико-химических измерений возникает задача описания зависимостей между исследуемыми случайными величинами. Для экспериментального изучения зависимости между двумя случайными величинами Х и Y проводят n независимых опытов, в каждом из которых получают пару значений (xi, yi), i = 1, 2, …, n. О наличии или отсутствии корреляции между Х

8

и Y можно качественно судить по виду поля корреляции, нанеся точки (xi, yi) на координатную плоскость.

Для количественной оценки тесноты связи служит выборочный коэффициент корреляции. Как было установлено ранее, состоятельными и несмещенными оценками для математических ожиданий mx и my служат выборочные средние x и

y , а генеральных дисперсий σ2x и σ2y — выборочные дисперсии sx2 и sy2 . Можно

доказать, что состоятельной и несмещенной оценкой генеральной ковариации covxy служит выборочная ковариация

cov*xy =

1

n (xi

 

)(yi

 

)

(3.1).

x

y

 

 

n 1 i=1

 

Пользуясь этими оценками, рассчитывают выборочный коэффициент корреляции

n (xi x)(yi y)

r*

=

i=1

 

(3.2),

 

 

xy

 

(n 1) sx

sy

 

 

который является состоятельной оценкой коэффициента корреляции генеральной совокупности со смещением, равным r(1 r2 ) / 2n . Величина смещения убывает с

увеличением числа опытов и при n > 50 составляет менее 1%. Выборочный коэффициент корреляции обладает теми же свойствами, что и rxy, и по абсолютной величине также не больше единицы:

1 r*

1

(3.3).

xy

 

 

Величина выборочного коэффициента корреляции определяет меру криволинейности связи между X и Y. Поэтому возможны случаи, когда при коэффициенте корреляции, значительно меньшем единицы, связь между X и Y оказывается близкой к функциональной, хотя и существенно нелинейной.

В случае, если полученное значение r* близко к нулю, необходимо провести проверку гипотезы об отсутствии корреляции между случайными величинами. Требуется определить, значимо ли отличается r* от нуля. Если число опытов n достаточно велико (более 20), то в условиях нулевой гипотезы (Н0: r = 0) можно ис-

пользовать нормальное распределение со стандартом:

 

σr* (1 r *2 ) / n

(3.4).

Тогда, при β = 0.95 генеральный коэффициент корреляции находится в следующих доверительных границах:

r *

1.96 (1 r *2 )

r r * +

1.96 (1 r *2 )

(3.5).

 

n

 

n

 

С вероятностью 0.95 можно ожидать, что существует корреляция между случайными величинами, если 0 не содержится внутри доверительного интервала.

4. Приближенная регрессия. Метод наименьших квадратов.

При исследовании корреляционной зависимости между двумя случайными величинами необходимо по данной выборке объемом n найти уравнение приближенной регрессии, чаще всего в виде следующего полинома

 

+b1x +b2 x2

+b3x3

k

 

y (x) = b0

+... = b0 + bjx j

(4.1),

j=1

9

где коэффициенты b0 и bj являются оценками соответствующих теоретических коэффициентов истинного уравнения регрессии

my/x =ϕ (x) 0 1x 2 x2

3x3

l

 

+... = β0 + βjx j

(4.2),

j=1

и оценить допускаемую при этом ошибку. Для этого обычно используют метод

наименьших квадратов. Рассмотрим некоторый класс функций y (x) , аналитиче-

ское выражение которых содержит некоторое число неопределенных коэффициентов, равное l. Наилучшее уравнение приближенной регрессии дает та функция из рассматриваемого класса, для которой сумма квадратов S имеет наименьшее значение:

n

 

 

 

2

(4.3).

S =

yi y (xi )

= min

i=1

 

 

 

 

 

Предположим, что экспериментальные точки отклоняются от уравнения истинной регрессии ϕ(x) только в результате воздействия случайных факторов, а ошибки измерения нормально распределены. Полученные в опытах значения yi будут распределены по нормальному закону с математическим ожиданием

m ( y

) = ϕ(xi) и дисперсией σ2

. При равноточных экспериментах σ2

= σ2

= … =

i

i

 

 

 

1

2

 

σn2 = σ2 . Тогда плотность распределения величины Yi принимает вид:

 

 

 

fi ( yi ) =

1

exp

1

[yi ϕ (xi )]2

 

(4.4).

 

 

2π σ

 

2σ2

 

 

 

В результате опытов случайные величины Yi приняли совокупность значений yi. Воспользуемся принципом максимального правдоподобия: определим так математические ожидания ϕ(xi), чтобы вероятность этого события была максимальной. Обозначим через рi = fi(yi) δ вероятность того, что случайная величина Yi примет значение из интервала yi - δ/2, yi + δ/2. Вероятность совместного осуществления подобных событий для i = 1, 2, …, n равна

n

 

 

 

exp

1

 

n

[yi ϕ (xi )]2 =

P = δn fi ( yi ) nσn (2π)n/2

 

2σ

2

i=1

 

 

 

 

 

i =1

 

 

1

n

 

 

 

2

 

 

= K exp

 

 

[yi ϕ (xi )]

 

(4.5),

σ

2

 

 

i=1

 

 

 

 

 

 

где К — коэффициент, не зависящий от ϕ(xi). Очевидно, что при заданном σ2 вероятность Р максимальна при условии, что

n

[yi ϕ (xi )]2 = min .

i=1

Таким образом, при нормальном распределении случайных величин оптимальность метода наименьших квадратов легко обосновывается. Нахождение коэффициентов уравнения приближенной регрессии по этому методу связано с задачей определения минимума функции многих переменных.

Пусть

 

 

y (x) = f (x,b0 ,b1, b2 ,...,bk )

(4.6).

Требуется найти значения коэффициентов b0, b1, b2, …, bk так, чтобы

10

n

 

 

 

2

S =

yi y (xi )

= min .

i=1

 

 

 

 

Если S принимает минимальное значение, то

S

= 0,

S

= 0,

S

= 0, ... ,

S

= 0

b

b

b

b

 

 

 

 

0

 

1

 

2

 

k

 

что соответствует следующей системе уравнений:

n

 

 

 

 

 

 

 

y (x )

 

2

yi y(xi )

b

i

= 0 ,

i=1

 

 

 

0

 

 

n

 

 

 

 

 

 

 

y (x )

 

2

yi y(xi )

b

i

= 0 ,

i=1

 

 

 

1

 

 

………………………………,

(4.7),

(4.8)

 

n

 

 

 

 

 

 

 

 

 

 

 

y (x )

 

 

 

2 yi y(xi )

b

i

= 0 .

 

i=1

 

 

 

 

k

 

 

 

 

Преобразуем (4.8):

 

 

 

 

 

 

 

 

 

 

n

 

n

 

 

 

 

 

 

y (x )

 

 

y (x )

 

 

yi

 

b i

y

(xi )

 

b

i

= 0 ,

 

i=1

 

0

i =1

 

 

 

0

 

 

n

 

 

n

 

 

 

 

 

 

 

y (x )

 

(xi )

y (x )

= 0 ,

(4.9)

yi

 

b i

y

 

b

i

i=1

 

1

i =1

 

 

 

1

 

 

………………………………………,

 

n

 

 

n

 

 

 

 

 

 

 

y (x )

 

 

y (x )

 

 

yi

 

b i

y

(xi )

 

b

i

= 0 .

 

i=1

 

k

i =1

 

 

 

k

 

 

В последней системе содержится столько же (k + 1) уравнений, сколько и неизвестных коэффициентов в уравнении (4.6), т.е. является системой нормальных уравнений. Поскольку S 0 при любых значениях коэффициентов, то у нее должен существовать по меньшей мере один минимум. Поэтому, если система (4.9) имеет единственное решение, то оно и является минимумом для S.

Соседние файлы в предмете Химия