- •Екзаменаційний білет № 1
- •Числова послідовність та її границя.
- •1.2 Основна теорема про подiльність многочленiв.
- •Екзаменаційний білет № 2
- •2.1. Властивостi неперервної функцiї на компактi.
- •Т про розщеплення лін опер: Нехай а лін опер над полем f і -добудок попарно простих множників , тоді пряма сума , при чому викон:
- •Екзаменаційний білет № 3
- •Локальний екстремум. Необхiднi та достатнi умови екстремуму.
- •Задача лiнiйного програмування. Її властивостi.
- •Властивості допустимої області злп
- •Властивості розв’язків злп
- •Екзаменаційний білет № 4
- •4.1. Інтеграл Рiмана. Критерiй iнтегрованостi функцiї за Рiманом.
- •Екзаменаційний білет № 5
- •Двоїстi задачi лiнiйного програмування. Теореми двоїстостi.
- •Іі Теорема двоїстості (двоїстий критерій оптимальності)
- •Екзаменаційний білет № 6
- •6.1. Інтеграл Рiмана на компактi та його застосування (обчислення площин, об'ємiв).
- •6.2. Задача опуклого програмування. Теорема Куна-Такера.
- •Екзаменаційний білет № 7
- •Гребенева оцінка. Її властивості та методика використання.
- •Метод найшвидшого спуску.
- •Екзаменаційний білет № 8
- •8.1Пряма та обернена крокова регресія.
- •8.2Оптимальнi чистi стратегiї у матричнiй грi. Теорема про мінімакс.
- •Екзаменаційний білет № 9
- •Задача коваріаційного аналізу та її розв’язання.
- •Двокроковий метод найменших квадратів
- •9.2.Типи даних. Стандартні типи даних (арифметичний та символьний). Структуровані дані та їх типи. Масиви. Файли.
- •Екзаменаційний білет № 10
- •Невласні інтеграли. Ознаки збiжностi.
- •Теорема 6
Екзаменаційний білет № 7
Гребенева оцінка. Її властивості та методика використання.
Нехай , тобто (*)
Означення: Якщо умов (*) виконується то кажуть що ми знаходимося в умовах строгої мультиколінніарності.
Означення: Якщо ж існують знаходиться в околі нуля, то говорять про мультиколініарність
В умовах строгої мультиколініарності використовують наступну формулу для знаходження множини усіх оцінок вектор
В умовах мультиколініарності маємо наступні проблеми:
А) нереально знайти з прийнятною точністю
Б)оцінка є нестійкою
В)оцінка є малоефективною: , тобто дисперсія є великою
тому була запропонована Ridge оцінка
Ridge оцінка має такий вигляд:
, де - мале позитивне число.
Зауваження: Ця оцінка є зміщенною.
Позначимо
Теорема: Для Ridge-оцінки справдливе наступне:
1) , де - класична оцінка
2) , де це зміщення, зсув.
3)Середньоквадратична помилка
Доведення:
Зауваження 1:
Існує таке , для якого
Зауваження 2:
В якості треба взяти таке найменше при якому стабілізуються усі графіки, при чому якщо графіки взагалі не стабілізуються то тоді мультиколініарність відсутня.
Метод найшвидшого спуску.
Нехай є деяка точка xs. Як перейти до нової точки xs+1 так, щоб при розв’зані задачі
,
виконувалась нерівність ?
Нехай , де d=(d1,...dn) задає напрям, в якому зміщується точка хs, а число >0 визначає крок зміщення в напрямку d. Якщо f(xs+1)=f(xs+d)<f(xs) при деякому >0, то напрямок d назвемо підходящим (зрозуміло, для задачі мінімізації).
Оскільки f(x)C1, то за формулою Тейлора маємо
, де , і, значить, напрямок d-підходящий, якщо . Оскільки f(x)C1, то - неперервна функція від . Звідсі випливає , що при достатньо малому ввиду близкості та xs, виконується також співвідношення (1).
Таким чином показали що при переході від точки xs до точки xs+1=xs+d, >0, напрямок d- підходящий (f(xs+1)<f(xs)), якщо при достатньо малих виконується співвідношення (1).
Градієнт являє собою вектор нормалі до поверхні рівня і його напрямок характеризує зростання функції. Крім градієнту f(x) розглянемо антиградієнт -f(x). Якщо вибрати в якості d напрямок, що складає гострий кут з антиградієнтом -f(x), то напрямок d- підходящий ( при переході від точки xs до точки xs+1 при достатньо малому >0 значення функції f(x) зменшиться). Дійсно, в цьому випадку виконується -Tf(xs)d>0 або Tf(xs)d<0. Зокрема, якщо вибрати d=-f(xs), то і швидкість зменшення функції f(x) (при нескінченно малому ) в напрямку d=-f(xs) (антиградієнта) максимальна.
Якщо в якості підходящого напрямку d при розв’язані задачі мінімізації функції f(x) використовується антиградієнт (при максимізації - градієнт), то відповідний метод носить назву градієнтного. В градієнтних методах мінімізації функції f(x) початкову точку x0 вибирають довільну, а потім будують послідовні наближення за правилом
(2)
Такий перехід від точки xs до точки xs+1 зменшує значення функції f(x), якщо s достатньо мале. Розглянемо вибір кроку s на кожній ітерації градієнтного методу найшвидшого спуску. В цьому методі величина кроку s в ітераційній процедурі (2) вибирається за правилом:
При фіксованому s ми вимушені зупинятися в точці xs+1на кожній ітерації, хоча напрямок -f(xs) ще веде до зменшення цільової функції. В методі найшвидшого спуску рух після точки xs+1 в напрямку -f(xs) вже не приведе до зменшення цільової функції.
Метод найшвидшого спуску обгрунтовується наступною теоремою.
Т. Нехай
ф-ція f(x) (хєЕn) непер-но диф-на (f(x)C1)
мінімум f(x) існує (minf(x)>-)
множина R(x0)={x:f(x)f(x0)}- обмежана.
Тоді:
а) якщо метод найшвидшого спуску закінчується за скінченне число ітерацій N,то отримаємо
;
б) якщо метод найшвидшого спуску не закін-ся за скінченне число ітерацій,то послідовність {f(xs)} збігається і для кожної граничної точки послідовності {xs} виконується .