Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Дворецкий С.И. и др. - Комп. моделир. и оптимизация технологич. процессов и оборуд. [2003]

.pdf
Скачиваний:
93
Добавлен:
15.08.2013
Размер:
1.63 Mб
Скачать

 

α 1

 

 

 

 

 

x1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

α

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

x2

 

 

Выходной сигнал

 

 

 

 

 

 

α

 

 

 

 

 

 

 

 

 

m

 

 

 

 

 

 

 

 

 

αm

 

 

(x, α) = z = xi αi

 

 

 

 

i=1

 

x m

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Рис. 2.3 Адаптивный сумматор

α0

1 α1

x1

αm

xm

z

ϕ

ϕ(z)

 

 

 

 

Рис. 2.4 Нелинейный

преобразователь сигнала

Точка ветвления

ϕ

α α0+(x,α)

Рис. 2.5 Формальный нейрон

Адаптивным его называют из-за наличия вектора настраиваемых параметров α . Нелинейный преобразователь получает скалярный входной сигнал z и переводит его в ϕ( z ) (рис. 2.4).

Стандартный формальный нейрон составлен из входного сумматора, нелинейного преобразователя и точки ветвления (рис. 2.5).

Точка ветвления служит для рассылки одного сигнала по нескольким адресам. Она получает скалярный входной сигнал z и передает его выходам. Среди нейронных сетей можно выделить две базовые архитектуры: слоистые и полносвязные сети.

Слоистые сети. Нейроны расположены в несколько слоев (рис. 2.6). Нейроны первого слоя получают входные сигналы, преобразуют их и через точки ветвления передают нейронам второго слоя. Далее срабатывает второй слой и т.д. до k-го слоя, который выдает выходные сигналы для пользователя. Если не оговорено противное, то каждый выходной сигнал i-го слоя подается на вход всех нейронов (i + 1)-го слоя. Число нейронов в каждом слое может быть любым и никак заранее не связано с количеством нейронов в других слоях. Стандартный способ подачи входных сигналов: все нейроны первого слоя получают каждый входной сигнал. Особое распространение получили трехслойные сети, в которых каждый слой имеет свое наименование: первый – входной, второй – скрытый, третий – выходной.

Полносвязные сети. Каждый нейрон передает свой выходной сигнал остальным нейронам, включая самого себя. Выходными сигналами сети могут быть все или некоторые выходные сигналы нейронов после нескольких тактов функционирования сети. Все выходные сигналы подаются всем нейронам.

Таким образом, нейронные сети вычисляют линейные функции, нелинейные функции одного переменного, а также все возможные суперпозиции – функции от функций, получаемые при каскадном соединении сетей.

Рассмотрим более подробно слоистую сеть (рис. 2.6). Ее структура характеризуется числом К и количеством нейронов m в каждом слое. Заметим, что в слоистой сети связи между нейронами в слое от-

сутствуют.

 

 

 

 

 

 

Введем новые обозначения: вход i-го нейрона k-го слоя –

zik , выход i-го нейрона – ψik , количество ней-

ронов в k-ом слое – Nk, k = 0, 1, 2, ..., K.

Тогда суперпозиция входных сигналов i-го нейрона k-го слоя

имеет вид:

 

 

 

 

 

 

 

Nk 1

 

 

 

zik = αijk ψkj 1, i =

1, Nk

,

k =

1, K

.

j=0

Здесь αijk

– весовые коэффициенты, являющиеся настраиваемыми параметрами и характеризующи-

ми связь j-го

нейрона (k – 1)-го слоя с

i-ым нейроном k-го слоя.

Входные объекты

 

α0

 

 

k = 0

0

 

 

k = 1

 

ψ1

 

k

k = K

 

 

 

 

 

 

 

 

 

 

ψ0

α1

 

 

 

 

 

 

 

0

 

 

 

 

α0 j

 

 

 

 

 

 

k

= g 0

x0

 

 

 

 

 

 

 

 

 

0 j

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ψ 0

α

 

 

 

 

0

 

ψ0

α11 j

 

 

 

 

 

0

 

ψ11

 

αk

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1 j

 

 

 

 

 

 

ψk

= g

x1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

1

 

 

 

 

 

1

 

 

 

α12 j

 

 

 

 

 

1

 

ψ1

 

k

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

α

2

 

 

 

0

 

 

 

 

 

 

 

 

2

 

 

α2 j

 

 

 

 

 

 

k

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x2

 

 

 

 

 

 

 

ψ2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ψ2

= g2

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

α1ij

 

 

 

 

2

 

 

 

 

 

 

 

αk

 

 

 

2

 

k

= gi

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ij

 

 

 

 

 

 

ψi

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

αm

 

 

 

ψ0N0

α1N1 j

 

 

 

 

 

 

 

ψ1N1

 

αKN K j

 

 

 

 

 

 

ψkNK = gNK

xm

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

N0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

N1

 

 

 

 

 

 

 

 

 

NK

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Рис. 2.6

Слоистая сеть

 

 

 

 

 

 

 

Для

нулевого слоя имеем ψ0j = x j , j =

 

. С

учетом

принятых обозначений аппроксимирующая

1, m

функция gi, i = 1, Nk, представляет собой персептрон и может быть записана в виде

 

 

gi = ψik , i =

 

 

,

 

 

 

 

1, NK

 

ψik = ϕ(zik ),

i =

 

,

k =

 

,

 

1, NK

1, K

ψ0k =1, k = 0, K 1.

Вкачестве функций активации нейронов (нелинейного преобразователя нейронов ϕ ) часто используют гладкие функции вида:

ϕ(z) = z; ϕ(z) =

 

 

1

; ϕ(z) = exp(z) exp(z) .

1

exp(z)

 

exp(z) + exp(z)

Приближение функций с помощью нейронных сетей сводится к их обучению. При этом входные сигналы х подаются обучаемой сети на обработку, задаются значения весовых коэффициентов α , а получаемые выходные сигналы g сравниваются с экспериментальными данными y. Затем строится оценка работы сети, например, как критерий максимального правдоподобия

 

1

P N K

 

E(α) =

∑∑( yiλ gi (x(λ) , α))2

,

 

2

λ=1 i =1

 

 

 

 

где gi (x(λ) ,α) i-ый выход сети, соответствующий векторам входных сигналов x(λ) и весовых коэффициентов α ; P – объем обучающей выборки (x(λ) , yλ ) .

Поиск оптимальных значений весовых коэффициентов α , при которых критерий E(α) минимален, производится с помощью известных методов решения экстремальных задач.

При обучении нейронных сетей целесообразно использовать метод регуляризации, позволяющий получить сглаженные функции gi ( x(λ) , α) . При этом оценка работы сети выбирается в виде

ˆ β α = α + βΩ α ,

E ( , ) E ( ) ( )

где β – параметр регуляризации, (α) – равномерно выпуклая функция, например, (α) = 12 αT α .

Оптимальное значение параметра регуляризации β подбирается итерационным методом.

2.1.2 Построение математической модели статики объектов ОZ

ПОДГОТОВКА И ПЛАНИРОВАНИЕ ЭКСПЕРИМЕНТА.

На этом этапе изучается объект, выбираются переменные x , y и диапазон изменения [x, x], определяется время Т0 окончания переходного процесса. Далее оценивается дисперсия случайной величины z.

 

x j = const и регистрируется N значений

~

 

 

 

 

Для этого устанавливается

 

,i =1, N , N 30 50 . Вычисляются

y ji

среднее арифметическое yср

и оценка дисперсии σ2z :

 

 

 

 

 

 

 

 

 

 

1

N ~

2

1

 

N ~

 

2

 

 

 

 

yср( j) =

 

y ji ,

σzj =

 

 

( y ji yср( j))

 

.

 

 

 

N

N 1

 

 

 

 

 

i =1

 

i =1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Величина x выбираются в процессе проведения эксперимента из условия, чтобы соответствующее

изменение ~ ≥ σ . Время проведения одного опыта принимается равным Т + Т , где время на-

y (2...3) z t 0 н

блюдения Тн установившегося значения выходной координаты зависит от частотного спектра z(t) и час-

~

 

 

 

 

 

тоты измерения y(t) в момент времени ti , i =1, N1 , N1<N на отрезке [Т0 ,Т0 +Тн]. Обычно Тн (1...2)Т0 из-за

трудности стабилизации входных переменных объекта.

 

ПРОВЕДЕНИЕ ЭКСПЕРИМЕНТА.

п. 2.1.1, что проводится N1 из-

Методика проведения опыта отличается от рассмотренной в

~

 

 

 

 

 

мерение y(t) в моменты времени ti на отрезках [Т0 , Т0 +Тн].

 

 

1

N

 

Среднее значение y( j) =

1 ~y j (ti ) соответствует величине x( j)

входной переменной, j = 1, 2, ..., n.

 

N1 i=1

 

ОБРАБОТКА ЭКСПЕРИМЕНТАЛЬНЫХ ДАННЫХ И ПОСТРОЕНИЕ МАТЕМАТИЧЕСКОЙ МОДЕ-

ЛИ.

При малом числе N1 усредненные значения y( j) будут искажены помехой z, что затрудняет или

делает невозможным построение модели статики и ее анализ. Поэтому часто экспериментальные данные предварительно сглаживают, например, методом скользящего среднего или методом четвертых разностей.

После сглаживания экспериментальных данных для построения моделей применяют вышеизложенные методы интерполяции и аппроксимации сглаженных данных.

Рассмотрим методику построения уравнений моделей статики для объектов Oz , выходная коор-

дината ~ которых есть случайная величина.

y

Пусть задан некоторый объект O1z , входная и выходная переменные Х и Y которого являются слу-

чайными величинами. Естественно ожидать, что значения у величины Y определяются значениями х. Однако в подобных ситуациях следует говорить о наличии стохастической (вероятностной) связи между переменными Y и Х объекта в статике. На практике при исследовании зависимости ϕ ( x ) между

переменными Y и Х обычно ограничиваются изучением зависимости между условным математическим ожиданием M (Y |X = x ) и переменной х, т.е. M (Y |X =x ) = ϕ( x) .

Зависимость M(Y |X =x ) от х называется регрессионной. Знание статистической зависимости между

случайными переменными имеет большое практическое значение: с ее помощью можно прогнозировать значение зависимой случайной переменной в предположении, что независимая переменная примет вполне определенное значение. Однако, поскольку понятие статистической зависимости относится к

осредненным условиям, прогнозы не могут быть безошибочными. Применяя вероятностные методы, как будет показано далее, можно вычислить вероятность того, что ошибка прогноза не выйдет за опре-

деленные

границы.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Уравнения регрессии классифицируют на линейные (корреляционные) и нелинейные.

Уравнение линейной регрессии (истинное) запишем в следующем виде

) .

(2.14)

Оценки истинных параметров модели

 

0 и

 

M {Y |X =x } = η = β0 1 (x

x

 

 

1 обозначим через b0

и b1, а оценку

 

через y . Подста-

 

 

β

 

β

 

 

 

 

 

 

 

 

 

 

η

ˆ

вив в (2.14) вместо истинных параметров их оценки, получим уравнение линейной регрессии

 

 

 

 

 

y

 

b0

 

b1

(x

 

x) .

 

(2.15)

 

 

 

 

 

ˆ

=

 

+

 

 

 

 

 

 

 

Оценки b0 и b1 уравнения регрессии (2.15) будем находить из условия минимума квадратов отклонений средних значений экспериментальных данных y( j) от вычисленных по уравнению регрессии

yˆ(x j ) , т.е. по методу наименьших квадратов (МНК):

 

=

n

ˆ

2 =

n

 

 

 

 

 

2

 

Ф(b0 ,b1)

Pj (y( j)

Pj [y( j)

b0

b1

(x j

x)]

min ,

 

y(x j ))

 

 

 

 

 

 

 

j=1

 

 

j=1

 

 

 

 

 

 

 

 

 

b0, b1

где Pj – число повторных измерений y( j) . Используя необходимые (и для данного случая достаточные)

 

 

 

 

~

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

условия минимума функции Ф(b0 ,b1) , получим систему нормальных уравнений:

 

Ф

= −2n

Pj [y( j) b0 b1 (x j

 

 

)]= 0,

 

 

 

x

 

 

 

 

b0

j =1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Ф

= −2

n

P

 

[y

 

( j) b b (x

 

 

)](x

 

 

) = 0.

 

j

j

x

j

x

 

 

 

b1

 

 

 

0 1

 

 

 

 

 

 

 

 

 

j =1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Приводя подобные члены, получим:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

n

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

b0 Pj +b1 Pj (x j x) =

Pj y( j),

 

 

 

 

 

j=1

j=1

 

 

 

 

j=1

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

n

 

 

n

 

 

 

 

 

b0 Pj (x j x) +b1 Pj (x j x)2 = Pj y( j)(x j x),

 

j=1

 

 

 

 

 

j=1

 

 

j=1

 

 

 

 

откуда имеем:

n

Pj y( j)

b0 = j=1 n

Pj

j=1

 

 

 

 

n

 

 

 

 

 

 

Pj y( j)(xj x)

 

 

 

 

b =

j=1

 

.

=Y

,

 

 

n

 

 

 

1

 

 

 

 

 

 

Pj (xj x)2

 

j=1

Оценки, получаемые по методу наименьших квадратов, обладают минимальной дисперсией в классе линейных оценок, т.е. являются несмещенными – M{b0} = β0, M{b1} = β1. Их дисперсии рассчитываются следующим образом:

 

 

 

 

σ2

 

 

 

 

σ2

 

M{(b −β

0

)2} S 2

=

y( j)

;

M{(b −β )2

} S 2

=

y( j)

.

n

n

0

b0

 

 

1 1

b1

 

 

 

 

 

 

Pj

 

 

 

 

Pj (x j x)2

 

 

 

 

 

j =1

 

 

 

 

j =1

 

Найдем несмещенную оценку σ2y( j) :

n Pj

n Pj

n

 

 

 

∑∑(yji −ηj )2

= ∑∑(yji y( j))2

+ Pj ( y( j) yˆ(x j ))2 +

 

 

j=1 i=1

j=1 i=1

j =1

 

 

 

 

 

n

+ (b1 −β1)2

n

 

 

 

+ (b0 −β0 )2 Pj

Pj (x j x)2 .

(2.16)

 

 

j=1

 

j=1

 

Первый член правой части есть мера экспериментальной ошибки, полученной в каждом отдельном опыте, выполненном при различных значениях хj, второй член служит мерой эффективности линейной модели для подгонки экспериментальных данных. Левая часть равенства является суммой квадратов с

n

Pj степенями свободы и распределенной как σ2y ( j )χ2 . Можно показать, что каждый член правой части

j=1

n

равенства распределен по закону σ2y ( j )χ2 с Pj n , n – 2, 1 и 1 степенями свободы, соответственно.

j=1

Если оценивать σ2y( j) по второму члену правой части равенства (2.16), то получим несмещенную оценку Sr2 дисперсии адекватности

 

1

n

Sr2 =

Pj (yср( j) yˆ(xj ))2 .

n 2

 

j=1

 

 

Величина Sr2 характеризует влияние переменной х.

Величина Sl2 характеризует влияние неучтенных факторов и служит мерой рассеяния, вызванного экспериментальной ошибкой:

 

 

n Pj

 

 

 

∑∑( y ji y( j))2

.

2

 

j=1 i=1

Sl

=

 

 

n

 

 

 

Pj n

 

j=1

Эта величина тоже является несмещенной оценкой. Очевидно, чем меньше влияние неучтенных факторов, тем лучше математическая модель соответствует экспериментальным данным, так как изменение у в основном объясняется влиянием переменной х.

Поэтому, прежде чем принять решение по поводу модели, необходимо проверить гипотезу о том, что линейная модель удовлетворительно описывает экспериментальные данные. Для проверки этой ги-

2

 

 

 

n

потезы вычислим статистику F =

Sr

,

которая имеет распределение Фишера с f1 = (n 2) и f2 = Pj n

2

 

Sl

 

 

j=1

степенями свободы. По доверительной вероятности ρ =1−α ={0,9; 0,95;

0,99} и числу степеней свободы

f1, f2 находят по таблицам F-распределения критическое значение F(ρ, f1,

f2 ) . Далее проверяется выпол-

нение условия

 

 

 

 

 

 

F = Sr2 Sl2 < F(ρ, f1 , f 2 ) .

 

 

Если это условие выполняется,

т. е. вычисленные значения

F

меньше табличного значе-

нияF(ρ, f1, f2 ) , то гипотеза о том, что линейная модель адекватна, принимается. В противном случае ги-

потезу о линейности модели следует отвергнуть и для описания экспериментальных данных необходимо выбрать другую модель.

В случае F < F(ρ, f1 , f 2 ) оценки дисперсий Sr2 и Sl2 можно объединить, чтобы получить лучшую оценку

n

σ2y( j) с Pj 2 степенямисвободы:

j=1

 

 

n

Pj

n

 

 

 

 

 

 

 

 

S 2

 

∑∑( y ji y( j)) 2 + Pj ( y ( j) yˆ ( x j )) 2

= j=1 i=1

j=1

 

 

 

 

 

=

y ( j )

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

(

Pj n) + (n 2)

 

 

 

 

 

 

 

 

 

 

j=1

 

 

 

 

 

 

 

 

 

 

 

 

n Pj

 

( y

yˆ ( x

j

)) 2

 

 

 

 

 

 

= ∑∑

 

 

ji

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

j=1 i=1

 

 

Pj 2

 

 

 

 

 

 

 

j=1

 

 

 

 

 

Конечно, если повторные измерения

yji при

заданном

x j

не

проводились, то оценку дисперсии

S y2( j) можно получить лишь по Sr2 . Без повторных измерений F-критерий не может быть применен для

проверки гипотезы линейности.

Далее можно проверить гипотезу о том, что β1 = 0 , составляя отношение оценок дисперсий:

 

 

 

 

n

 

S

2

 

Pj ( yˆ(x j ) y)2

 

 

j=1

F =

 

3

=

 

S y2( j)

S y2( j)

 

 

Если это отношение больше табличного значения

2.7).

 

 

y ji

 

, где

y =

j,i

.

n

 

 

Pj

 

 

 

j=1

 

F(ρ, f1, f2 ) , гипотеза H0 :β1 =0 отвергается (рис.

Понятие доверительного интервала. Доверительная вероятность.

Оценку неизвестного параметра генеральной совокупности одним числом называют точечной оценкой. Наряду с точечным оцениваем статистическая теория оценивания параметров занимается вопросами интервального оценивания.

Задачу интервального оценивания в самом общем виде можно сформулировать так: по данным выборки построим числовой интервал, относительно которого с заранее выбранной вероятностью можно сказать, что внутри этого интервала находится оцениваемый параметр. Интервальное оценивание особенно необходимо при малом числе наблюдений, когда точечная оценка мало надежна.

y

y

 

yˆ(x)

H0 : β1 = 0

 

 

H0 : β1 = 0

yˆ(x)

 

x

x

а)

б)

Рис. 2.7 К проверке гипотезы H0 :β1 =0:

а – гипотеза отвергается; б – гипотеза принимается

Доверительным интервалом [b, b ] для параметра b называют такой интервал, относительно которого можно с заранее выбранной вероятностью ρ =1 − α близкой к единице, утверждать, что он содержит значение параметра b, т.е.

P[b < b < b ] =1 − α .

Чем меньше для выбранной вероятности [b, b ] , тем точнее оценка неизвестного параметра b и, на-

оборот, если этот интервал велик, то оценка, произведенная с его помощью, мало пригодна для практики. Вероятность ρ =1 − α принято называть доверительной вероятностью, а число α – уровнем значимо-

сти. Выбор доверительной вероятности определяется конкретно решаемой задачей.

Оценим значимость оценок коэффициентов регрессии и построим интервальные оценки этих коэффициентов. Для этого проверяют гипотезу о равенстве нулю коэффициента регрессии, соблюдая предпосылки нормального распределения b относительно β. В этом случае вычисляемая для проверки нуле-

вой гипотезы H0 :β1 =0 статистика t =

b −β Sb

имеет распределение Стьюдента. Тогда для коэффициента

β0 имеем:

 

 

 

 

 

 

 

 

b

−β

0

 

b

−β

n

t =

 

0

 

=

0

0

, f = Pj 2.

 

 

Sb

 

 

n

 

 

 

 

 

 

1 2

=

 

 

 

0

 

 

S y( j)

(Pj )

j 1

 

 

 

 

 

 

 

j=1

Величину Sy( j) называют оценкой стандартной ошибки.

По доверительной вероятности 1− α2 и числу степеней свободы f находят по таблицам распределения Стьюдента критическое значение t1−α2, f . В этом случае доверительный интервал для β0 имеет вид

b0 t1−α 2, f Sb0 ≤ β0 < b0 + t1−α 2, f Sb0 .

Аналогично для β1 имеем:

t = b1 −β1 =

Sb1

 

 

b1 −β1

 

 

 

 

n

 

 

 

 

 

,

f = Pj 2.

 

 

n

 

 

 

 

 

2 1 2

 

j =1

Sy( j)

 

Pj (x j

x)

 

 

 

)

 

 

 

 

j =1

 

 

 

 

 

b1 t1α2, f Sb1 ≤ β1 < b1 + t1α2, f Sb1 .

Линия регрессии характеризует изменение условного математического ожидания выходной переменной ~y от вариации входной переменной х. Точечной оценкой условного математического ожидания

~

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

~

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

в точках x j , j =1,n .

η = M {y |x}

является yˆ(x) . Построим доверительный интервал для η = M {y |x }

Известно что ( y(x)

 

M{y |x}) / Sy( j) имеет распределение Стьюдента с f

 

n

 

 

2 степенями свободы:

 

 

Pj

 

 

ˆ

 

 

~

 

 

 

 

 

 

 

 

 

 

 

 

=

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

j=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

t =

 

yˆ − η

,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

S yˆ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ˆ

t1α

 

, f Syˆ

≤ η < ˆ

+

t1α

 

, f Syˆ ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

y

2

 

y

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

(x j x)2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

где

2

2

 

 

 

j=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

S yˆ ( j) =

S y( j)

 

+

 

 

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Pj

 

Pj (x j x)2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

j=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

j=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Доверительные границы интервала для

 

 

 

~

в точках x j можно изобразить графически (рис.

η = M {y |x}

2.8).

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

y

Верхняя граница интервала

yˆ(x) = b0 +b1(x x)

Доверительный интервал

для

η в точке x j

Нижняя граница интервала

x1 x2 x3 x xj ... xn

x

Рис. 2.8 К понятию "точность" линейной регрессионной модели

В точке x = x границы интервала наиболее близки друг к другу. Расположение границ доверительного интервала показывает, что прогнозы по уравнению регрессии с заданной точностью (интервальные оценки для η) допустимы для значений x, не выходящих за пределы выборки. Иными словами, экстра-

поляция по уравнению регрессии может приводить к значительным погрешностям.

НЕЛИНЕЙНАЯ РЕГРЕССИЯ.

Пусть уравнение регрессии задается полиномом k-ой степени

yˆ = b0 +b1x +b2 x2 +... +bk xk ,

коэффициенты которого будем определять методом наименьших квадратов по экспериментальным данным.

Однако, нам неизвестна степень полинома k. Для ее определения используем итерационный метод: вначале задаемся степенью полинома, например k = 2 и определяем коэффициенты полинома методом наименьших квадратов. Затем вычисляем остаточную дисперсию по формуле

 

n

 

 

( y j yˆ(x j ))2

 

S 2ост, k =

j =1

.

n (k +1)

 

 

Далее увеличиваем заданную степень полинома k на 1 и повторяем выше описанную процедуру при

увеличенном значении степени полинома. Как только Sост2

, k +1 перестает быть значимо меньше Sост2

, k ,

увеличение степени k нужно прекратить. Значимость различия между Sост2

, k +1 и Sост2

,k проверяется по

критерию Фишера:

 

 

 

 

 

 

 

 

 

F =

Sост2

, k

< F(ρ, f , f

2

),

 

 

 

 

 

 

 

 

 

Sост2 , k +1

1

 

 

 

 

 

 

 

 

 

 

 

 

 

где f1, f2 – число степеней свободы остаточной дисперсии в числителе и знаменателе соответственно. Если считать, что уравнение регрессии найдено с достаточной точностью, то остаточная дисперсия

обусловлена только наличием дисперсии воспроизводимости, т.е. Sост2 Sвоспр2 . Чем меньше доля

Sост2 Sвоспр2 в общей дисперсии Sy2 , тем сильнее связь между ~y и x , так как меньше доля случайности в этой связи. Силу связи между ~y и x можно охарактеризовать величиной:

 

 

 

 

 

 

n

 

n

 

 

[n (k +1)]

S 2

 

 

 

( y j y)2

 

y j

 

 

 

S y2

 

j=1

 

j=1

 

ξ =

 

ост

,

=

 

, y =

 

.

(n 1) S y2

n 1

n

 

 

 

 

 

 

1 − ξ = Θ

Связь тем сильнее, чем меньше ξ . Величина называется корреляционным отношением.

Чем больше Θ , тем сильнее связь, 0 ≤ Θ ≤1 .

Если Θ= 1, то существует функциональная зависимость между параметрами. Однако при Θ = 0 величины ~y и x нельзя считать независимыми, так как связь между ними, не сказываясь на дисперсиях,

может проявить себя в моментах более высокого порядка. И только при нормальном распределении равенство нулю корреляционного отношения однозначно свидетельствует об отсутствии связи между случайными величинами. Корреляционное отношение, как и коэффициент корреляции в линейной регрессии, характеризует тесноту связи между случайными величинами. Анализ силы связи по Θ называют корреляционным анализом.

МНОЖЕСТВЕННАЯ РЕГРЕССИЯ.

Множественная регрессия применяется для описания взаимной связи входных величин x1, x2 ,..., xm и выходной величины ~y . Уравнение линейной множественной регрессии имеет вид:

 

 

 

 

 

m

 

 

 

 

 

yˆ = b0 + bi xi ,

 

 

 

 

 

 

 

i =1

 

 

где b0,b1,...,bm – находятся методом наименьших квадратов:

 

 

 

 

Sy

 

 

 

m

 

bi = rxi y

, i =1, m;

b0 = y bi xi ;

 

 

 

S

 

 

 

i =1

 

 

 

xi

 

 

 

 

 

 

n

 

 

 

n

 

 

 

(xij xi )2

 

 

( y j y)2

 

Sxi =

 

j =1

n 1

;

S y =

j =1

;

 

 

 

 

 

n 1

 

 

 

1

n

 

 

 

 

rxi y =

n

(xij x) ( y j y) /(Sxi Sy ),

 

 

1 j =1

 

 

 

 

где rxi y – коэффициент корреляции, оценивающий тесноту линейной связи случайных величин xi и y. О степени силы связи x1, x2 ,..., xm и ~y можно судить по величине коэффициента множественной ли-

нейной корреляции Rx1,x2 ,...,xm y , которой всегда больше нуля и меньше единицы. Использование этой

величины связано, однако, с опасностью получения неверных выводов – при увеличении m и неизменном числе опытных данных значение R 1, хотя теснота линейной зависимости может оставаться неизменнойУравнение. множественной нелинейной регрессии объекта OmZ задается обычно полиномом:

yˆ = b0 +b11x1 +b12 x2 +... +b1m xm +b21x12 +b22 x22 +... +b2m xm2 +

+c12 x1x2 + c13x1x3 +... + c1m x1xm + c23x2 x3 + c24 x2 x3 + c24 x2 x4 +...

+c2m x2 xm +... + d11x13 + d12 x23 +... + d1m xm3 +...

Коэффициенты уравнения определяются методом наименьших квадратов и не имеют статистической трактовки. Наибольшие трудности вызывает выбор порядков полинома по каждой из переменных, а также вычисление определителя плохо обусловленной матрицы, часто встречающееся при нахождении коэффициентов уравнения. Поэтому целесообразно при построении модели нелинейной множественной регрессии применять нейронные сети.

2.1.3 Экспертные оценки

Когда нет возможности определить значения тех или иных параметров экспериментально или выбрать из ранее зарегистрированных данных, приходится полагаться на субъективные оценки. В подобных случаях чаще всего желательно воспользоваться мнением коллектива экспертов, а не отдельного лица. Такой коллектив должен состоять из специалистов, обладающих глубокими знаниями моделируемого процесса и по возможности облеченных правом принимать ответственные решения.

Выявление индивидуальных точек зрения и формирование на их основе единого мнения коллектива экспертов можно осуществлять несколькими методами, но, пожалуй, самым полезным из них является метод Дельфи [11]. Это итерационная процедура, которая позволяет подвергать мнение каждого эксперта критике со стороны всех остальных, не заставляя их фактически сталкиваться лицом к лицу. Идея метода заключается в том, чтобы создать механизм, обеспечивающий сохранение анонимности точек зрения отдельных лиц и тем самым свести к минимуму влияние красноречивых и обладающих даром убеждать личностей на поведение группы в целом. Все взаимодействия между членами группы находятся под контролем со стороны координатора или руководящего звена, направляющего всю деятельность группы. Групповая оценка вычисляется им путем некоторого усреднения (обычно посредством нахождения среднего значения или медианы) и доводится до сведения всех членов группы.

Рассмотрим в качестве примера задачу определения значения некоторого числа N. Пусть в группе экспертов будет 12 членов. Метод Дельфи предполагает следующий способ действий.

1Опросить каждого члена группы по отдельности, какова его оценка числа N.

2Разложить ответы на общей шкале в порядке возрастания значений и определить квартили Q1, M, Q3 таким образом, чтобы в каждом из четырех отрезков шкалы содержалась четвертая часть всех оценок. Результат при 12 членах группыбудет выглядеть так, как показано на рис. 2.9.

3Сообщить каждому из членов группы значения Q1, M и Q3 и попросить его пересмотреть свою оценку, а если его новая оценка ниже Q1 или выше Q3, попросить его кратко обосновать свое мнение.

4Подсчитать результаты второго тура и сообщить членам группы новые значения Q1, M и Q3 (обычно эти значения будут иметь меньшую дисперсию, чем после первого тура) вместе с письменными обоснованиями предельных значений (сохраняя при этом анонимность мнений). Попросить каждого из представивших письменные ответы учесть новые данные и аргументацию и при желании пересмотреть свою предыдущую оценку. Если в этом третьем туре пересмотренная оценка у данного члена груп-

пы будет ниже Q1 или выше Q3, попросить его кратко обосновать, почему он счел не заслуживающими внимания аргументы, которые могли бы его заставить сместить свою оценку ближе к средней.

5Повторять эту процедуру столько раз, сколько представляется желательным координатору, или

пока промежуток между Q1 и Q3 сузится до некоторой заранее установленной величины. Для этого обычно требуется всего три или четыре тура, поскольку аргументы скоро начинают повторяться. Далее берется медиана как представляющая групповое мнение относительнотого, каким должно быть значение N.

Возможны и другие варианты метода Дельфи. Этот метод, предполагающий анонимность мнений, итеративную процедуру обработки результатов, управляемую обратную связь, числовые оценки и статистическое определение групповой оценки, может стать ценным инструментом исследования для разработчиков имитационных моделей.

N1 N2 N3 N4 N5 N6

N7 N8 N9

N10 N11

N12

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Q1

M

Q3

 

 

 

Рис. 2.9 Результаты оценок по методу Дельфи

3 АНАЛИТИЧЕСКИЙМЕТОДПОСТРОЕНИЯМОДЕЛЕЙ ТЕХНОЛОГИЧЕСКИХОБЪЕКТОВ

Аналитическая модель технологического объекта обычно состоит из четырех групп уравнений: 1) материального и теплового баланса; 2) гидродинамики потоков; 3) термодинамического равновесия (для отсчета движущей силы процесса); 4) скоростей протекающих процессов (химических реакций, тепло- и массопередачи и др.). Уравнения второй и, особенно часто, третьей

группы могут входить в математическую модель неявно.

Соседние файлы в предмете Химия