Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

2-lek_ekonometr

.pdf
Скачиваний:
17
Добавлен:
05.02.2016
Размер:
347.98 Кб
Скачать

МІНІСТЕРСТВО ОСВІТИ І НАУКИ, МОЛОДІ ТА СПОРТУ УКРАЇНИ КИЇВСЬКИЙ НАЦІОНАЛЬНИЙ УНІВЕРСИТЕТ ТЕХНОЛОГІЙ ТА ДИЗАЙНУ КАФЕДРА ЕКОНОМІЧНОЇ КІБЕРНЕТИКИ

ОПОРНИЙ КОНСПЕКТ ЛЕКЦІЙ

вивчення дисципліни «Економетрика»

Київ – 2012

1

Змістовний модуль №1

Тема1.1 «Математичне моделювання як метод наукового пізнання економічних явищ і процесів»

На сьогодні широкого поширення одержало математичне моделювання в різних областях знань: механіці, фізиці, біології, хімії, у тому числі в економіці. Розглянемо основні поняття.

Система це множина взаємоповязаних елементів, які складають певну єдність. Модель система, здатна замінити оригінал (тобто реальну систему) так, що її вивчення

дає інформацію про оригінал. Модель може повністю або частково відтворити структуру системи, що моделюється та її функції.

Моделювання процес побудови, реалізації та дослідження моделі, який здатний замінити реальну систему та дати інформацію про неї.

Математична модель - система математичних і логічних співвідношень, які описують структуру та функції реальної системи. Математична модель відрізняється за своєю природою від оригінала. Дослідження властивостей оригінала за допомогою математичної моделі зручніше, дешевше, займає менше часу порівняно з фізичним моделюванням, яке використовується в техніці (тобто має ту ж природу, що і оригінал). Більш того, цілий ряд економічних систем неможливо зобразити за допомогою фізичних моделей.

XVIII ст. - початок використання математичних методів у економіці з опублікування роботи "Економічні таблиці" французьким економістом Ф.Кене, який вперше зробив спробу формалізації процесу суспільного відтворення. В подальшому наукове обгрунтування суспільного відтворення було здійснено К. Марксом.

XIX ст. — формується економетрія як наука з початку розробки статистичних методів у вигляді парної та множинної регресії, теорії кореляції, теорії помилок, вибіркових методів (Р.Гамільтон, К.Пірсон, Р. Фішер та ін.).

Вперше термін «економетрії» зявився в німецькій книзі по бух. обліку, автор якої розумів теорію бухгалтерії. В економічну науку цей термін ввів в оборот норвезький статистик Рагнар Фрім в 1928 р. Як самостійна наука «економетрія» сформувалась в 30-х роках XX сторіччя, завдяки працям Шульца.

В той час поставали такі проблеми:

1)Описати рівнянням залежність попиту від пропозиції;

2)Виробничу функцію: залежність випуску продукції та засобів виробництва. В буквальному перекладі «Екометріка» - вимірювання економіки.

В економічних дослідженнях економетрія широко використовується із розвитком

обчислювальної техніки та появою персональних компютерів (ПК).

2

У сучасній літературі має місце ряд трактувань поняття економетрії, або економетрики (що одне і те ж), як наукової дисципліни: від надмірно розширеного з виміру всього, що є в економіці, до вузько орієнтованого з розгляду лише математико-статистичних способів. Широкий спектр економіко-математичних методів і моделей, корисний майбутнім фахівцям, не вивчається ні в одному з циклів фундаментальних та професійно-орієнтованих дисциплін підготовки економістів.

Економетрика це наука, яка вивчає конкретні кількісні та якісні взаємозвязки економічних обєктів і процесів за допомогою математичних та статистичних методів і моделей.

Економетрична модель це модель яка з певною мірою надійності, математично описує причинно наслідкові звязки між економічними показниками та величинами.

Економетрична модель - різновид економіко-математичної моделі, параметри якої оцінюються за допомогою методів математичної статистики. Одним з основних підходів у вимірі зв'язку між досліджувальними показниками в економетричній моделі є кореляційно- регресивний аналіз. Він являє собою комплекс методів, за допомогою яких визначається вид рівняння для досліджувальних показників та розрахунок їх параметрів (регресивний аналіз), а також встановлення тісноти та значимості зв'язку між змінними у рівнянні або рівняннях (кореляційний аналіз).

Економетрична модель призначена для аналізу і прогнозування розглядаємих економічних процесів і явищ в умовах невизначеності інформації за допомогою методів математичної статистики.

Тема1.2 «Парний регресійний аналіз».

Однією з головних задач економетрії в ринковій економіці є ретельне вивчення кількісних звязків між показниками для кращого розуміння господарських явищ і процесів, що в свою чергу дозволяє більш обґрунтовано сформулювати управлінське рішення та дати прогнози на майбутнє. Для вирішення цієї задачі потрібно вміти будувати економетричні моделі.

Звязок між різними явищами в економіці складний і різноманітний. На рівень розвитку одного показника можуть впливати багато факторів, рівень впливу яких різний. Ці закономірності потрібно враховувати під час планування, прогнозування і проведення економічного аналізу. Для вивчення форми звязку між показником і факторами на основі статистичних даних використовується регресійний аналіз. Причому, обєктами дослідження стохастичної залежності соціально економічних процесів можуть бути різні статистичні показники.

3

Розглянемо економетричну модель представлену загальною лінійною регресією вигляд якої наступний: Y = AX + U , (1)

Де Y - матриця значень залежної змінної (пояснювальної змінної);

X - матриця значень незалежних змінних (пояснюючих змінних);

A - матриця параметрів моделі розмірністю m × n ( m - кількість незалежних змінних, n - число спостережень);

U - матриця випадкової складової.

Незалежні змінні Х (пояснюючі змінні) найчастіше бувають детерміністичними і вони є наперед заданими змінними, або вхідними показниками для економетричної моделі.

Випадкові складові U називаються стохастичними складовими, помилками, залишками. Вони є наслідками помилок спостережень, містять у собі вплив усіх випадкових факторів, а також факторів, які не входять у модель.

Залежні змінні Y (пояснювальні змінні) є результативними показниками, які залежать

від факторів X та випадкової складової U . Отже,

вони також є стохастичними, тобто

випадковими. Тому, економетрична модель є стохастичною.

Розглянемо найпростіший вид

лінійної регресії: парна лінійна регресійна модель

(лінійна однофакторна регресія).

 

 

Парною лінійною регресією Y

на X називається одностороння стохастична лінійна

залежність між випадковими величинами показника Y

і одного фактора X , які знаходяться

в причинно наслідкових відношеннях, причому зміна фактора виключає зміну показника. Загальний вигляд лінійної однофакторної регресії наступний:

Y = α + βX + u , (2)

Де Y - залежна змінна (пояснювальна змінна);

X- незалежна змінна (пояснююча змінна);

α, β - параметри моделі;

u - випадкова складова.

Регресія характеризує тенденцію зміни статистичного показника Y зумовлену впливом

зміни фактора

X . Позначимо оцінки параметрів регресії

α , β через a, b . В результаті

 

ˆ

Вона вважається побудованою,

отримаємо рівняння парної лінійної регресії: Y = a + bX .

якщо визначені

a, b .

 

Для оцінки параметрів регресії використаємо метод найменших квадратів (1 МНК). Зауваження : Основоположниками методу є математики К. Гаус і П. Лаплас.

4

Суть методу МНК: Оцінки параметрів моделі мають бути такими, щоб мінімізувати суму

n

квадратів залишків кожного спостереження показника, тобто u 2 i ® min .

i=1

Параметри a, b регресії можна визначити із нормальної системи рівнянь:

Y = n * a + b * X

 

(3)

X *Y = a * X + b * X 2

 

Розвязавши лінійну систему отримаємо параметри a, b .

Для знаходження оцінок параметрів лінійної однофакторної регресії можна використати функцію «ЛИНЕЙН» в Excel.

Для визначення сили стохастичного звязку між економічними показниками використовується коефіцієнт кореляції.

Стохастичний звязок між двома величинами Y та X називається кореляцією.

Нехай є два статистичних показника Y та X із значеннями за n спостережень. Обчислимо коефіцієнт кореляції.

Сила кореляційного звязку визначається коефіцієнтом кореляції.

 

 

 

 

 

 

 

 

-

 

 

*

 

 

 

 

 

 

 

r =

 

 

 

x * y

x

y

; (4)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x2

- (

 

 

) 2 *

y2

- (

 

)2

 

 

 

 

x

y

Де − 1 < r < 1 .Якщо r - 1, то звязок між показниками Y та X сильний оберненій; якщо r1, то сильний прямий ; r0, то звязок слабкий.

За допомогою коефіцієнта детермінації визначається якість побудованої регресійної моделі. Коефіцієнт детермінації обчислюється за формулою

R 2 = 1 - (u 2 ) (5)

Y - Y

2

Чим ближче значення R2 до 1 тим вища якість побудованої моделі.

За допомогою F-критерію Фішера характеризується значимість звязку в регресійній моделі. У випадку парної регресії цей критерій розраховується за наступною формулою:

n

(yˆ i - yi )2 × (n - 2)

F =

i=1

 

 

(6), де 1, (n-2) число ступенів вільності відповідно чисельника та

n

- y)

 

 

(yi

2

 

 

i=1

ˆ

 

 

 

 

 

знаменника залежності.

Під терміном «ступінь вільності» (ступень свободи) в економетрії розуміють число, яке показує, скільки незалежних елементів інформації із змінних yi (i = 1...n) потрібно для розрахунку суми квадратів, що розглядається. В кореляційному аналізі існує рівняння, яке

5

повязує відхилення загальної суми квадратів із залишковою сумою квадратів та сумою

 

 

 

 

 

n

2

 

 

 

 

квадратів, що пояснює регресію:

S y = Se

+ Sγ ,

де S y = (yi

 

) -

загальна сума квадратів

y

 

 

 

 

 

i=1

 

 

 

 

 

 

 

n

2

 

 

 

 

 

n

2

відхилень, Se

= (yi yˆ ) - залишкова сума квадратів відхилень, Sγ

= (yˆ −

 

) - регресійна

y

 

i=1

 

 

 

 

 

 

i=1

 

 

 

сума квадратів відхилень.

 

 

 

 

 

 

 

 

 

 

Кожна із зазначених сум повязана з ступенями вільності: для загальної суми квадратів

S y потрібно

(n-1) незалежних

чисел,

тобто

ступенів вільності;

для

залишкової суми

квадратів Se

- (n-m) ступенів вільності; для регресійної суми квадратів

Sγ - (m-1) ступенів

вільності.

За статистичними таблицями F-розподілу Фішера із ступенями вільності 1, (n-2) і рівнем довіри (1-α) вибирається Fтабл . Можлива помилка (рівень значущості) α може прийматися 0,05 або 0,01. Це означає, що у 5% або 1% випадків ми можемо помилитися, а у 95% або 99% випадків (рівень довіри) наші висновки будуть правильні. При умові F>Fтабл побудована регресійна модель відповідає реальній дійсності.

Тема1.3: «Множинний регресійний аналіз».

На практиці економічний процес змінюється під впливом багатьох різноманітних факторів, які необхідно вміти виявляти та оцінювати.

Розглянемо деякі приклади.

Описати і дослідити звязок між економічними показниками можна за допомогою лінійної множинної регресії. Дані залежності є стохастичними і в класичних регресійних моделях встановлюють звязок випадкової результативної змінної Y і незалежних змінних:

Х1 , Х 2 ,....., Х m у випадку n - спостережень.

Стохастична залежність, що визначається лінійною регресією у випадку m пояснюючих змінних може бути виявлена лише при багаторазовому повторенні спостережень. Результати спостереження представляються у вигляді таблиці статистичних даних.

Остання залежність має вигляд лінійної регресії у випадку m пояснюючих змінних.

Y = β 0 Х 0 + β1 Х1 + ..... + β m Х m + U (3.1),

Де Х 0 = 1 - фіктивна змінна; Y - залежна (пояснювальна) змінна; Х1 ,.., Х m незалежні

(пояснюючі) змінні; U - помилки; β0 , β1 ,.., β m - невідомі параметри, які потрібно оцінити.

Якщо позначити оцінки параметрів β0 , β1 ,.., β m через b0 , b1 ,.., bm , то отримаємо наступне рівняння лінійної багатофакторної регресії:

6

ˆ

Х 0

+ b1 Х1 + ..... + bm Х m

(3.2).

Y = b0

Враховуючи табличний запис статистичних даних показників рівняння лінійної множинної регресії (3.1) набуде вигляду (3.3)

уi = β0 xi 0 + β1 xi1 + ..... + β m xim + ui , (3.3) де i = 1,2,..., n

Якщо b0 , b1 ,.., bm можливі оцінки β0 , β1 ,.., β m , тоді регресія (3.3) набуде вигляду (3.4) yˆ i = b0 xi 0 + b1 xi1 + ..... + bm xim .

Знаходження МНК - оцінок b0 , b1 ,.., bm лінійної множинної регресії може бути здійснене декількома способами.

1 спосіб. Знаходження МНК - оцінок із системи нормальних рівнянь, яка в багатофакторному випадку має вигляд:

b0 xi20 + b1 xi0 * xi1 + ... + bm xi0 * xim = yi xi 0b0 xi1 xi0 + b1 xi21 + ... + bm xi1 * xim =yi xi1

b0 xim xi0 + b1 xim xi1 + ... + bm xim2 =yi xim

Розвязавши систему лінійних рівнянь отримаємо МНК-оцінки множинної b0 , b1 ,.., bm .

Обчислимо надійні зони регресії (довірчі інтервали для математичного сподівання) як

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ui2

 

 

 

 

 

 

−1

 

 

 

 

 

 

 

−1

 

 

 

 

 

T

 

T

 

 

 

 

 

T

T

 

 

i=1

 

 

( yˆ i tα / 2,k σˆ u X i

(X

 

X )

X i ; yˆ i + tα / 2,k σˆ u

 

X i (X

 

X ) X i ),

де

σˆ u =

 

 

- незміщена

 

 

 

n m

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

− 1

оцінка дисперсії залишків.

 

 

 

 

 

 

 

 

 

 

Довірчі

 

інтервали

 

 

для

параметрів

 

(i = 1...m)

обчислюються

 

 

 

ai

(aˆ i tα / 2,k

 

; aˆ i + tα / 2,k

 

 

), де cii - діагональні елементи матриці (X T X )−1 .

σˆ u2 cii

σˆ u2 cii

 

 

 

 

Тема1.4: «Поняття мультиколінеарності, методи визначення

та способи усунення» Мультиколінеарність це існування тісної лінійної залежності (або сильної кореляції) в

наборі пояснюючих змінних Х1 , Х 2 ,..., Х m .

Наслідки мультиколінеарності:

1.Падає наочність оцінювання, яка виявляється наступним чином:

1.1помилки деяких конкретних оцінок параметрів регресії стають занадто великими;

1.2ці помилки є досить корельовано одна з одною;

1.3дисперсія оцінок параметрів регресії різко збільшується.

7

2. Оцінки параметрів регресійної моделі можуть бути незначущими через наявність

взаємозвязку між пояснюючими змінними ( Х1 , Х 2 ,..., Х m , де m - кількість пояснюючих змінних).

3.Оцінки параметрів стають досить чутливими до обсягів сукупності спостережень.

1.Інформацію про парну залежність можна отримати із кореляційної матриці, вигляд якої наступний

 

R

R

R

...

R

 

 

 

 

 

 

 

 

 

11

12

13

...

1m

 

 

 

 

 

 

 

R21

R22

R23

R2m

 

 

 

 

 

 

 

R =

R

R

R

...

R

 

, де R

 

(i = 1,

 

, j = 1,

 

) - коефіцієнти парної кореляції.

 

m

m

 

31

32

33

 

3m

 

ij

 

 

 

 

 

... ... ...

...

...

 

 

 

 

 

 

 

 

 

 

Rm2

Rm3

...

 

 

 

 

 

 

 

 

 

Rm1

Rmm

 

 

 

 

 

 

 

Явище мультиколінеарності не зводиться до існування лише парної кореляції між пояснюючими змінними. Висновок про присутність або відсутність мультиколінеарності робиться на основі значення визначника кореляційної матриці det(R) [0;1].

1)Якщо det(R) = 0 , то існує повна мультиколінеарність. 2)Якщо det(R) = 1, то мультиколінеарність відсутня. 3)Якщо det(R) → 0 , то існує мультиколінеарність.

2. Якщо в економетричній моделі знайдене мале значення параметра вm в разі високого рівня коефіцієнта детермінації (R 2 ), це також свідчить про наявність мультиколінеарності та ін.

Усі ці методи виявлення мультиколінеарності мають один спільний недолік: жодний із них чітко не розмежовує випадок, коли мультиколінеарність, яку слід вважати істотноюта неодмінно враховувати, і випадок, коли мультиколінеарність можна знехтувати.

Алгоритм Феррара Глобера дозволяє найповніше дослідити мультиколінеарність між пояснюючими змінними. Цей алгоритм містить три види статистичних критеріїв, згідно з якими перевіряється відповідно мультиколінеарність:

а) усього масиву пояснюючих змінних (χ2 – „ хі квадрат”);

б)кожної пояснюючої змінної і рештою пояснюючих змінних (F - критерій); в)кожної пари пояснюючих змінних (t-критерій).

Усі ці критерії при порівнянні з їх критичними значеннями дають змогу зробити конкретні висновки щодо наявності чи відсутності мультиколінеарності пояснюючих змінних.

Перевіримо набір пояснюючих змінних на мультиколінеарність за допомогою алгоритму Феррара Глобера у випадку трьох пояснюючих змінних Х1 , Х 2 , X 3 .

8

 

 

 

 

 

 

 

 

x

 

 

x

 

 

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

11

 

 

12

 

 

13

 

 

 

 

 

 

 

 

 

1.1

Запишемо

матрицю

X = x21

 

 

x22

 

 

x23 ,

 

елементи якої

позначимо

 

xij

 

 

 

 

 

 

 

 

 

 

 

xn2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

xn1

 

 

 

 

xn3

 

 

 

 

 

 

 

 

 

( i = 1,

 

 

j = 1,2,3 ), де n - кількість спостережень.

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

Обчислимо середні значення та стандартні відхилення пояснюючих змінних X1, X2, X3.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

xij

 

 

(xij -

 

j )2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

δ j =

X

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Перший спосіб: Використаємо формули:

X j =

,

де

X j -

 

n

n

,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

середнє

значення j

тої пояснюючої

змінної;

 

xij

- власне значення j –

тої пояснюючої

змінної;

j – номер пояснюючої змінної; i

номер точки спостереження;

δ j -

стандартне

відхилення j-тої пояснюючої змінної.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Другий спосіб: Використовуючи функції «СРЗНАЧ» та «СТАНДОТКЛОН» в Excel.

 

 

1.3 Знайдемо кореляційну матрицю R.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Для знаходження кореляційної матриці R необхідно кожен елемент матриці ( X *T × X * )

 

 

 

 

 

 

 

 

R

R

R

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

11

12

 

13

 

 

 

 

 

 

 

 

 

 

помножити на

 

і отримаємо

R = R

 

R

 

 

R

 

.

 

 

 

 

 

 

 

 

 

n -1

21

22

23

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

R31

R32

R33

 

 

 

 

 

 

 

 

 

1.4Знайдемо визначник кореляційної матриці, тобто det(R). Якщо det(R) наближається до нуля, то в масиві пояснюючих змінних може існувати мультиколінеарність. Прологарифмуємо визначник матриці R, тобто знайдемо ln[detR].

1.5Обчислимокритерій χ2 за формулою: χфакт2 = - n -1 - 1 (2m + 5) ln (det R) .

6

Знайдене значення χфакт2 порівняємо з табличним значенням χ табл2 . Табличне значення χ табл2

знаходимо за таблицею розподілу Пірсона, коли маємо 1 m(m -1)ступенів вільності та рівень

 

 

 

 

 

 

 

 

 

2

 

 

 

значущості

α=0,05.

Якщо χ факт2

> χ табл2 ,

то в

масиві

пояснюючих

змінних

існує

мультиколінеарність.

 

 

 

 

 

 

 

 

 

 

 

1.6 Обчислимо Fj-критерії.

 

 

 

 

 

 

 

Для визначення

Fj- критеріїв необхідно знайти матрицю R-1=С, яка є оберненою до

 

 

 

с

с

с

 

 

 

 

 

 

 

 

 

11

12

13

 

 

 

 

 

 

матриці R,

а саме

С = с21

с22

с23

.

Безпосередньо

Fj- критеріїв

обчислюється за

 

 

 

с31

с32

с33

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n - m

 

 

(к = 1,2,3)-

 

 

 

 

формулою:

F = (ckk

-1)

 

 

,

де

ckk

діагональні елементи матриці

С .

 

 

 

 

m -1

 

 

 

 

 

 

 

 

9

Обчислені критерії порівнюються з табличним значенням Fтабл . Табличне значення Fтабл

знаходимо за таблицями розподілу Фішера, коли маємо n, m ступенів вільності, та при рівні значущості α=0,05. Якщо Fj > Fтабл , то Х j пояснююча змінна мультиколінеарна з іншими.

1.7 Визначимо частинні коефіцієнти кореляції.

Частинні коефіцієнти кореляції показують тісноту звязку між двома пояснюючими змінними за умови, що всі інші змінні не впливають на цей звязок і обчислюються за

формулою: rkj,s =

 

ckj

 

. Вважають звязок тісним, якщо значення rkj,s

→ 1 .

 

 

 

ckk c jj

 

 

 

 

 

1.8 Визначимо t – критерій.

Ці критерії застосовуються для визначення мультиколінеарності двох пояснюючих

 

 

 

(rkj ,s

 

 

 

)

змінних і обчислюються за формулою: t

 

=

 

n m

kj

 

 

 

 

 

 

 

 

( 1

rrj2,s )

 

 

 

Обчислені t – критерії порівнюються з табличним значенням tтабл . Табличне значення tтабл знаходимо за таблицями t-розподілу, коли маємо (n-m) ступенів вільності та при рівні значущості α=0,05. Якщо tkj > tтабл , то Х k і Х j пояснюючі змінні мультиколінеарні між собою.

Для подальшої побудови якісної множинної регресії необхідно позбутися від мультиколінеарності.

Змістовний модуль №2

Тема 2.1: «Поняття гетероскедастичності, методи визначення та способи усунення»

Явище гомоскедастичності виникає в ситуаціях, коли обєкти, що спостерігаються однорідні, наприклад при дослідженні роботи однотипних підприємств. Якщо ж досліджуються неоднорідні обєкти, то виникає проблема гетероскедастичності:

Приклад:Вивчається залежність прибутку фірми від розміру основних фондів. Зрозуміло, що для великих фірм коливання прибутку буде вищим ніж для малих.

Отже, гетероскедастичність стає проблемою, коли значення змінних у рівнянні регресії значно відрізняються в різних спостереженнях. При побудові класичної лінійної регресії одне із передумов побудови було постійність дисперсії залишків. Це явище називається гомоскедастичністю. Якщо ж це припущення не задовольняється і дисперсія залишку змінюється для кожного спостереження або групи спостережень то це явище називається гетескедастичністю.

10