- •2. Основні методи моделюван економіки:
- •4.Класиф економ-математ моделі.
- •5.Постановка та приклади задач лп. Зад оптимал плануван виробн прод. Зад Про раціон харчуван (дієту).
- •8.Симплексний метод розвязуван зад лп.
- •10. Основні властивості пари двоїстих задач лінійного програмування.
- •11. Сумісне розв’язування пари двоїстих задач лінійного програмування.
- •12.13.Постановка і особливості т-задач лп. Методи побудови опорних планів зад
- •14.Постановка т-задач. Знаходження її оптимального плану методом потенціалів
- •15.16.Постановка і особливості задач нп. Графічний метод
- •17.Постановка зад дробово-лп.
- •19.Економетрія як наука. Поняття економетричної моделі. Основні етапи її побудови
- •20. 21. Поняття економ моделі. Основні етапи побудови ек моделей.
- •22.Загальне понят про лінійну регресію. Оцінка парамет ліній регресії за допом методу найменших квадратів
- •23.Основні кореляційні характеристики: коваріація, коефіцієнт кореляції
- •24.Основні передумови методу найменших квадратів. Теорема Гаусса-Маркова
- •26.Перевірка статистичних гіпотез відносно коефіцієнтів регресії та кореляції
- •33.Перевірка значущості коефіцієнтів регресії у випадку лінійної множинної регресії.
- •34.Перевірка значущості рівняння лінійної множинної регресії в цілому.
- •35.Інтервал оцінки парамет, функції ліній множин регресії та індивідуального значення залежної змінної.
- •36.Гетероскедастичність. Сутність та наслідки гетероскедастичності.
- •37.Сутність та наслідки автокореляції
- •38.Сутність та наслідки мультиколінеарності.
- •39.Моделі лінійної множинної регресії з незалежними фіктивними змінними.
- •40.Сезонні фіктивні змінні.
- •34. Перевірка гіпотези про рівність 2ох коефіцієнтів детермінації.
38.Сутність та наслідки мультиколінеарності.
Мультиколінеарність –це явище лінійної, або сильної кореляційної залежності двох, або більше пояснюючих змінних.
Досконала М – це явище лінійної залежності, двох або більше пояснюючих змінних.
Недосконала М – це явище сильної кореляційної залежності двох,або більше пояснюючих змінних.
Наслідки М:
1)оцінки параметрів регресії знайдені за МНК стають зміщеними, їх дисперсії різко зростають, що призводить до розширення довірчих інтервалів і погіршення точності оцінювання в цілому;
2)оцінки параметрів регресії та їх стандартні помилки стають дуже чутливими до зміни обсягу вибірки(нестійкі);
3)зменшуються t-статистики коефіцієнтів регресії, що спричиняє неправильні висновки про існування впливу певної пояснюючої змінної на залежну змінну.
Єдиного методу виявлення М немає. Характерні ознаки М:
1)велике значення R2 і незначущість t-статистик деяких коефіцієнтів регресії (класична ознака);
2)велике значення парних коефіцієнтів кореляції.
а) кількість пояснюючих змінних m=2, тоді інформацію про наявність М визначають по кореляційній матриці К.
в) m>2, тоді інформацію про наявність М визначають по кореляційній матриці К
Оскільки К [0,1], то: * К = 0 існує повна М, * К =1 відсутня М, * К 0 то з достатнім ступенем надійності стверджують що між пояснюючими змінними існує М.
3)велике значення частинних коефіцієнтів кореляції.
Найбільш повне дослідження М проводять за тестом Фаррара-Глобера.
Алгоритм Фаррара-Глобера
1)Стандартизація даних Xij*=Xij - / xj , j=1,m ,i=1,n
2)Знаходження кореляційної матриці K*=1/n(X*)T X*
3)Обчислення значення 2=-(n-1-(2m+5)/6 ln K*) , 2 – має розподіл Пірсона з ступенем вільності l=1/2m(m-1). Якщо 2>2,l в сукупності пояснюючих змінних існує мультиколінеарність.
4)Обчислення значень Fj=(dij*-1) n-m/m-1, де dij* - це діагональні елементи матриці (К*)-1, Fj –має розподіл Фішера з ступенями вільності l1=m-1; l2=n-m. Якщо Fj >F,l1,l2 то Xj – мультиколінеарна з іншими змінними.
5)Обчислення значень tij=ij*/1-(ij*)2n-m-1, ij*=- dij*/ dii* djj*, tij – має розподіл Стьюдента зі ступенем вільності l=n-m-1. Якщо tijt/2,l , то між Хi та Xj існує мультиколінеарність.
39.Моделі лінійної множинної регресії з незалежними фіктивними змінними.
У регресійних моделях у ролі пояснюючих змінних часто виступають якісні змінні, що формалізуються за допомогою фіктивних змінних. Фіктивна змінна-це змінна, що кількісним чином описує якісну змінну.
Приклад1: Z=
ANOVA модель-це регресійна модель у якої всі регрес ори якісні змінні. ANCOVA модель-це регресійна модель у якої регресорами є кількісні і якісні змінні.
Приклад 2: ANCOVA
Y=+X+Z, Y-зарплата, X-стаж, Z-
Правило введення фіктивних змінних
Якщо якісна змінна має k-типів, то при побудові регресійних моделей використовують k-1 –фіктивну змінну.
Справді, якщо для змінної було введено дві фіктивні змінні
Z1= Z2= ,
То отримаєм що Z1= 1-Z2, тобто є строга лінійна залежність між пояснюючими змінними(досконала М).
Іноді для пояснення поведінки залежної змінної використовують фіктивні змінні.
Наприклад: У=
Змінну У тоді можна інтерпретувати, як ймовірність деякої події.
Тому моделі з бінарними залежними змінними називають лінійними ймовірнісними моделями (LPM).
Застосування класичної регресійної залежності у цьому випадку не зовсім коректне.
У такому випадку припускають,що залежність між доходом (Х) і купівлею деякого товару (У) є нелінійною: регресійна функція як і функція розподілу випадкової величини має S-подібну траєкторію розвитку.
Практикою перевірено,що функція розподілу доходів може бути підпорядкована нормальному, або логістичному закону розподілу.
Пробіт-моделлю називають регресійну модель з бінарною залежною змінною, що має нормальний розподіл.
Логіт-моделлю називають регресійну модель з бінарною залежною змінною, що має логістичний закон розподілу.