Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Шепелев, И. Г. Математические методы планирования и управления в строительстве конспект лекций

.pdf
Скачиваний:
12
Добавлен:
19.10.2023
Размер:
5.9 Mб
Скачать

0,649

—0,083

1,000

—0,461

—0,152

—0,384

—0,003

—0,461

1,000

0,427

—0,325

—0,009

—0,152

0,427

1,000

Множественный коэффициент корреляции, определенный по формуле (4.2.1), R = 0,697.

Для случая зависимости от двух факторов

^

Г Тух,+ Тух, ^Тух1тухй

 

R

гXiX-i

(4.2.2)

--------------

] /

 

Для определения влияния только одного фактора на результи­ рующий показатель, с исключением влияния других факторов, используется частный коэффициент корреляции

Гу1х1-х1-х.ухп = — 11 , )

(4.2.3)

 

У Д ц -Д н

 

где Дц — определитель матрицы

с вычеркнутой первой строкой

i-ым столбцом;

с вычеркнутой

i-ой строкой и

Дп — определитель матрицы

i-ым столбцом.

 

 

При множественной корреляции от двух факторов коэффициент частной корреляции первого фактора

Гу/^.х,

ТУХу тух1'тх1х1

(4.2.4)

 

 

 

 

ух3

 

х,х3)

 

 

, ) ( 1

 

 

а коэффициент частной корреляции для второго фактора

 

ГУ!хг х, --

ГУ*2

Tyx1’Txixa

(4.2.5)

------------------------

Vi1- i1г У -

Частный коэффициент корреляции отражает «чистое» влия­ ние» фактора на результирующий показатель и отличается от коэффициента парной корреляции тух.

При линейной форме связи множественный коэффициент корреляции является оценкой точности аппроксимации, при не­ линейных формах связи для оценки точности аппроксимации (оценки адекватности модели) применяются корреляционное отношение rj и ошибки аппроксимации в. Эти оценки определя­ ются так же, как и при парной корреляции по формулам (2.4.5)

и (2.4.6)

40

§ 4.3 Формы зависимости при множественной корреляции

Так же, как при парной корреляции, простейшей формой вы­ ражения множественной зависимости является линейная зави­ симость вида

•4 i

У = а0+ ахх х +

а ,х 2+ . .. -\-апх п,

(4.3.1)

где у — результирующий признак;

 

х\ — факторы;

 

 

а0 — свободный член уравнения регрессии;

 

щ — коэффициенты при факторах.

параболиче­

Линейная зависимость является частным случаем

ской зависимости, имеющей выражение:

 

У ао+

о,\Хх + а2х 2

. . + а п х\ а22 х\ -f- ... -f-

+

Х\Х2+ а 13 x tx 3-f-.. . a inx ix n .. ,

(4.3.2)

где х\ — квадраты значений факторов;

XiXi — попарные произведения всевозможных комбинаций фак­

торов;

регрессии

при

попарном

произведении

a tj — коэффициент

факторов (i, j)

— соответственно номера факторов).

Степенная зависимость

 

 

I—п

 

 

 

 

 

 

 

(4.3.3)

~у — A Xil

. . . х„п = А П хр,

 

 

 

 

 

i=i

 

 

где bi — показатель степени

при каждом i-ом факторе;

заме­

тим, что коэффициенты Ь\ могут

принимать целые и дробные

значения с положительным или отрицательным знаком.

В по­

следнем случае кривая принимает вид гиперболы.

 

 

Показательная зависимость

 

 

 

 

у =

 

. , а У п =

i=i

 

(4.3.4)

 

 

 

 

 

 

где а\ и Ь[—коэффициенты

регрессии,

принимающие

любые

вещественные значения.

 

 

 

 

 

 

Частным случаем показательной зависимости является экс­

поненциальная зависимость

 

 

 

 

 

У =

ef(x,) = exp [f (*,)],

 

(4.3.5)

где l'(xi) — любые функции факторов Xi.

 

линеализации

Благодаря простоте

выражения и удобству

экспоненциальные формулы получили в последнее время широ­ кое распространение.

41

’Многофакторная зависимость может быть аппроксимирова­ на произведении ряда функций (метод Брандона)

i = n

У = С fi (м ) *2 (*2) . . . fn (Л'п) - с П f, (лу),

(4.3.6)

1 -1

 

здесь fi (х\) — некоторая функция фактора; с —-свободный член формулы.

Ниже будут рассмотрены методы аппрокоимации многофак­ торных зависимостей с применением перечисленных моделей.

§ 4.4. Аппроксимация многофакторной связи линейной зависимостью

Аппроксимация заключается в подборе коэффициентов ре­ грессии при заранее заданной форме линии регрессии. Наибо­ лее распространенным способом аппроксимации является метод наименьших квадратов. Сущность метода показана во второй главе. Необходимо найти минимум выражения

р = Е ( у - у ) 2.

(4.4.1)

При линейной многофакторной зависимости выражение (4.4.1) запишется в виде

р Е (у — а0 — ахх 1а2х 2— ... апх а)2-> min, (4.4.2)

Для минимизации выражения (4.4.2) необходимо опреде­ лить частные производные по каждому неизвестному. Напом­ ним, что в качестве неизвестных здесь рассматриваются пара­ метры регрессионной формулы (4.3.1) а0; аи а2... ал.

Частные производные приравниваются к нулю и составля­ ется система нормальных линейных уравнений, число которых на единицу больше числа факторов, включаемых в модель2). Си­ стема нормальных уравнений имеет вид:

NiZq-j- оуЕхi —|- а2^ х 2 . . . ~J~ аяЪхп—- Ey,

a 0Ext -f a fix \ -\-a2'£‘X1x 2 . . . + ап^х^хп = Елуу^

a0Zx2-(- ахЪххх 2-}-а2 Ел2 • • • + anT>x2x n = Ex2y,

a 0Exn -j- a fix ^ x n -f- a2Zx2x n ... + anEx2

= Exny.

2) Слово «модель» здесь и ранее принимается

как синоним слова «фор­

мула».

 

42

Решив систему любым известным методом, можно найти параметры уравнения регрессии. Наибольшее распространение сейчас получил метод решения обращением матриц, запрограм­ мированный в ряде стандартных программ аппроксимации |[7]. В матричной форме система (4.4.3) запишется

 

(Х*Х) А = X*Y,

(4.4.4)

где X —матрица

исходных данных по

независимым

перемен­

ным;

транспонированная к

матрице X;

 

X* — матрица

 

Y — матрица-столбец фактических значений

зависимой пе­

ременной;

 

А — матрица-столбец искомых коэффициентов регрессии.

Последняя матрица запишется в виде

 

«о

 

а,

 

&2

(4.4.5)

А =

аП

Матрица исходных данных представляется в виде таблицы наблюдений по факторам

* 1 1

Х 1 2 * 1 3 • • * l j

■ • • * l n

* 2 1

* 2 2 * 2 3 • • • * 2 j • • • * 2 n

* 1 1 * i 2 * 1 3 • • . * , j . .

(4.4.6)

* ^ In

■ * n i

a : n 3 • • • X N j

• • A N n

Эти исходные данные и данные наблюдений зависимого пере­ менного У в виде матрицы-столбца

У1

у2 1

= Уз

(4.4.7)

Уп

43

вводятся в память электронной вычислительной машины. Для дальнейших вычислений необходимо определить матрицу X*, транспонированную матрице X. Напомним, что транспонирова­ ние матриц — это замена местами строк и столбцов матрицы. Таким образом, матрица X*, транспонированная матрице X (4.4.6), имеет вид:

Xi | А'о, .

• -Yu

•*N1

Ху, X-,., .

• -Y|2

•*N2

х ч X2j . . • *lj

ГК1

-П„ X>n

• A'ln .

*Nn

Умножив транспонированную матрицу X* на матрицу исходных данных X и на матрицу-столбец исходных данных по результи­ рующему признаку У, получаем систему нормальных уравнений в матричной форме (4.4.4). Для решения этого уравнения не­ обходимо найти матрицу (Х*Х)-1, обратную матрице3) (Х*Х), п умножить эту матрицу на обе части уравнения (4.4.4). В резуль­ тате получим выражение

 

(Х*Х) - 1

(Х*Х) А = (Х*Х)-‘ (X*Y).

(4.4.9)

Так как

(Х*Х) - 1 (Х*Х) = Е =

1, то решение системы

(4.4.4)

получим

в виде

(Х*Х)

; (X*Y).

(4.4.10)

 

Л

Значение каждого из коэффициентов уравнения регрессии мо­ жет быть определено по формуле:

а. = V Cll V у, x,j,

(4.4.11)

j^O 1=1

 

где сц — элемент обратной матрицы.

Рассмотрим пример аппроксимации многофакторной зависи­ мости и использования корреляционной формулы.

Для подготовки к переводу на новую систему планирования и экономического стимулирования одного из строительно-мон­ тажных трестов следовало изыскать резервы в целях получения дополнительной прибыли для компенсации перерасхода стиму­ лирующих фондов предприятия. При изыскании резервов в под­ разделениях треста были проведены корреляционные исследо­

3) Матрицей, обратной матрице X, называется такая матрица X—*, которая при перемножении ее на матрицу X даст единичную матрицу Е.

44

вания и получена модель, отображающая зависимость рента­ бельности каждого из подразделений от ряда факторов. Стави­

лась задача —

определить

совокупное влияние факторов на

рентабельность

и на этой

основе определить чистое влияние

каждого из факторов на рентабельность, чтобы получить допол­ нительную прибыль за счет каждого из факторов:

Х\ — механовооруженности труда;

— уровня сборности строительства; х3— коэффициента рассредоточенности строительства;

xi — уровня механизации строительно-монтажных работ;

х5— фондоотдачи;

х6— текучести кадров.

Исходные данные по уровню рентабельности и факторам были взяты по. 1 2 строительно-монтажным подразделениям за два года, предшествовавшие переводу треста на новую систему. Из приведенных 'здесь факторов требует пояснения коэффици­ ент рассредоточенности, который определялся по формуле:

где Ai — объем строительно-монтажных работ по i-му объекту; U— расстояние i-ro объекта от производственной базы.

В результате расчетов, проведенных на ЭВМ «Минск-22» по стандартной программе аппроксимации, получено следующее уравнение регрессии:

у = —93,773+0,140*1 + 0,830x2 — 0,170*3 + 7,109*4 +

+5,234*з — 0,019*6.

(4.4.12)

Теснота связи множественной корреляции здесь

характери­

зуется коэффициентом корреляции R = 0,737. Для

линейных

зависимостей, отражающих экономические явления,

такой ко­

эффициент корреляции считается достаточно высоким. При про­ верке уравнения регрессии и коэффициентов регрессии на значи­

мость

(см. гл. III)

как уравнение,

так и коэффициенты оказа­

лись

значимыми.

Следовательно, можно с уверенностью

использовать уравнение (4.4.12)

для оценки влияния

факторов

Xi на

уровень

рентабельности

работы строительных

подразде­

лений

треста.

влияния вводится

понятие эластичности. Элас­

Для

оценки

тичность

каждого

фактора — уровень изменения

зависимого

переменного в связи с изменением фактора на 1 %,

при прочих

равных условиях, т. е. при неизменных значениях других факто­ ров.

45

Для множественной линейной зависимости эластичность фак­ тора равна коэффициенту регрессии при этом факторе.

При нелинейных формах связи эластичность зависит от ве­ личины коэффициента регрессии, абсолютной величины факто­ ра, расчетного значения зависимого переменного. В нашем слу­ чае эластичность факторов 3i — 0,140; Э2 == 0,830; Э3 =

— 0,170; Э4 = 7,109; Э5 = 5,234; Э6 = —0,019.

В соответствии с техническими, технологическими и органи­ зационными возможностями производства были заданы изме­ нения факторов (в сторону улучшения) и подсчитаны резервы снижения издержек производства и роста прибыли.

§ 4.5. Параболическая зависимость (многочлен n-ой степени)

Для более точного, достоверного отражения действительно­ сти в модели необходимо подобрать такую форму кривой, ко­ торая бы адекватно отражала связи между факторами. Если форма кривой неизвестна и нет сколько-нибудь обоснованной гипотезы о ней, то можно аппроксимировать эту связь много­ членом n-ой степени, считая его универсальной формой связи.

Уо-о +

ОлХ\ -f- о- 2 4" • • • 4“ й 12 х \х

2 + а1гх гх 34“ • • ■&пХ\ 4-

 

+ а22х 2+ ... а И1 д^4 - а 222 л ^ + . . .

(4 .5 .1 )

Степень

многочлена может быть

неограниченно

большой,

члены полинома, состоящие из произведений независимых пере­ менных, выражают влияние взаимосвязи факторов. Взаимосвя­ зи могут быть не только первой, но и второй, третьей и т. д. сте­ пеней. В качестве взаимосвязей могут рассматриваться произ­ ведения типа х\х?. Если не ограничивать степень полинома и

число членов, то можно аппроксимировать любую зависимость с любой степенью точности. Однако на практике обычно огра­ ничивают как степень полинома, так и число его членов:

а) в целях получения более или менее простой формулы; б) в отдельных случаях повышение степени полинома и увели­ чение числа его членов не приводит к быстрому и эффективно­ му повышению точности; в) при увеличении количества членов полинома до числа, равного числу наблюдений, кривая прохо­ дит через все точки и корреляционная зависимость становится функциональной, в которой учитываются не средние, а частные, случайные явления, при этом могут затушевываться основные принципиальные характеристики ситуации.

При аппроксимации многочленом n-ой степени каждый

46

сложный член полинома заменяют дополнительной условной переменной в первой степени и в дальнейшем аппроксимацию ведут по методике аппроксимации линейной зависимости (см. § 4.4). Уравнение (4.5.1) после введения дополнительных переменных

z12 =

XiXz, z13 = x tx s, z,, = x \ ...

z22 =

x\

(4 .5 .2 )

и т. д. сводится к линейному виду:

 

 

 

У —

+ u tx } -f- а 2х 2 - f - . .. -f- ci\2 Z|2'+ °-\г z,s +

 

• • • -г a n zu + a22z22 -f ... + «in zni +

« 2 2 2

(4.5.3)

Необходимым этапом расчета является дополнение матрицы экспериментальных данных условными переменными (4.5.2). Матрица наблюдений после введения условных переменных имеет вид табл. 9.

Т а б л и ц а 9

у

• ь

Л -а

Z , a= J f i . r j

2 Z n - . r j

СЧ

T n

И

Получив матрицу X, дополненную условными переменными, произведем аппроксимацию линейной зависимости. Преобразо­ вав формулу в соответствии с соотношениями (4.5.2), получим полипом заданной степени.

Так как уравнение обычно получается громоздким, то чрез­ вычайно важно знать, какие члены полинома можно оставить в формуле, а какие необходимо отбросить без ущерба для точно­ сти аппроксимации. Решить эту задачу можно двумя путями: а) от простого к сложному; б) от сложного к простому.

Аппроксимацию от простого к сложному производят после­

дующей схеме. Сначала подбирают наиболее простую форму,

например

У1 = у"= 4)•

(4.5.4)

 

Полученное уравнение

проверяют на 'адекватность,

допустим,

по критерию Фишера.

В множественной корреляции

число на­

блюдений должно быть

достаточно большим. Считают, что оно

должно превышать число переменных как фактических,

так и

условных в 6 — 8 раз.

При таком большом числе наблюдений

правомерно применение

любого критерия для оценки значимо­

сти уравнения. Если

полученное уравнение не значимо,

то есть

47

подтверждается нульгипотеза, то в уравнение

вводят дополни­

тельные факторы или условные переменные

 

У2

(4.5.5)

Уз = а0-|- aix i + а2х 2 и т. д.

(4.5.6)

Если при увеличении числа членов полинома получают зна­ чимое уравнение, то считают задачу решенной. Однако могут быть такие исходные данные, при которых вообще невозможно получить значимое уравнение регрессии, тогда большой объем вычислительных работ оказывается лишним. Необходимо отме­ тить, что если в линейных формах при увеличении числа фак­ тических независимых переменных на единицу многочлен возра­ стает также на единицу, но нелинейный полином при включении в него одного дополнительного фактора растет стремительно, лавинообразно. Обычно ограничиваются многочленом второй степени при парных взаимосвязях, в этом случае число членов полинома может быть подсчитано по формуле:

,2

__

(п 4~ 2) (п + 1)

(4.5.7)

П Т 2

1 .0

 

Количество членов полинома в зависимости от числа факто­ ров приведено в табл .1 0 .

Аппроксимация с нарастающим числом членов продолжает­

ся до тех пор,

пока не будет получено уравнение адекватное по

 

Таблица 10

F-критерию. Этот способ, несмотря

 

на его видимую простоту и логич­

Число

Число

Число чле­

ность, .очень сложен, дает громозд­

кое уравнение.

факторов

взаимо­

нов поли­

 

связей

нома

Если идут от сложного к просто­

2

1

6

му, то вначале определяют коэффи­

3

3

10

циенты регрессии многочлена мак­

4

6

15

симальной степени с наибольшим

5

10

21

числом факторов. Затем проверяют

10

45

66

эти коэффициенты на значимость по

F-критерию Стыодента, Незначимые члены уравнения вычеркивают, при этом вычеркиваются также соответствующие строки и столбцы матрицы нормальных уравне­ ний. Для этой матрицы снова определяют коэффициенты ре­ грессии, их проверяют на значимость, незначимые вычеркивают

и т. д. до тех пор, пока не будет получено выражение,

все ко­

эффициенты которого значимы.

т. е. за­

Рациональнее всего применять смешанный способ,

даваться какой-то степенью многочлена, определять

к этому

48

многочлену коэффициенты регрессии, проверять уравнение на значимость, проверять коэффициенты регрессии на значимость, отбрасывая таким образом лишние члены. В случае незначи­ мого уравнения регрессии необходимо повышать степень много­ члена или ввести дополнительные взаимосвязи между фактора­ ми, после чего определить коэффициенты регрессии, проверить уравнение на значимость, отбрасывая лишние члены и т. д.

Блок-схема этого алгоритма приведена ниже (Схема 1). В литературе [7] этот метод называют многошаговым регресси­ онным анализом.

Схема

БЛОК-СХЕМА МНОГОШАГОВОГО РЕГРЕССИВНОГО АНАЛИЗА

1

Ввод исходных данных х, у

 

 

 

ф

 

 

2

Получение системы нормальных уравнений

 

 

(Х*Х)А = Х*У

 

 

 

Ф

 

 

3

Получение обратной матрицы

(Х *Х )-‘

j

 

Ф

 

 

4

Вычисление у = —

 

 

 

Ф

 

 

5

2 (у — у)2

 

Вычисление дисперсии Sy —

^

 

Ф

6Вычисление коэффициентов регрессии

А= (Х*Х)-> (Х*У)

Ф

7Вычисление расчетных значений зависимой переменной у = ХА

Ф

8 Вычисление остаточной дисперсии

„9 s (У -"У)

ост N—п —1

49

Соседние файлы в папке книги из ГПНТБ