
- •1.Класифікація проблем за ступенем їх структуризації.
- •2.Описання систем з кінцевим числом станів.
- •3.Випадковий процес – математична модель сигналів
- •4.Кількість інформації як міра знятої невизначеності.
- •5.Модель "чорного ящика".
- •6.Пошук альтернативи із заданими властивостями.
- •7.Модель структури системи.
- •8.Частотно-часове представлення сигналів.
- •9.Поняття невизначеності.
- •10.Зв'язок між формальною та змістовною моделями
- •11.Критерій для оптимізації рішень в умовах ризику та невизначеності.
- •12.Структуризація кінцевої мети у вигляді дерева цілей
- •13.Принципи рішення слабоструктурованих проблем.
- •14.Принцип узгодженого оптимуму Парето
- •16.Стійкість систем
- •17.Пошук нових технічних рішень на базі морфологічного аналізу.
- •18.Фундаментальна властивість ентропії випадкового процесу.
- •19.Емерджентність як результат агрегування.
- •20.Основні етапи та методи системного аналізу.
- •21. Стохастичні системи.
- •22. Процедура структуризації проблеми у вигляді дерева рішень.
- •23. Методика структурного аналізу з використанням функції корисності.
- •24 Керовані та некеровані динамічні системи.
- •25. Поняття та основні напрямки математичної статистики.
- •26. Динамічні моделі систем.
- •27. Складність систем
- •28. Модель складу системи.
- •29. Кількість інформації в індивідуальних подіях.
- •30. Цикли проектування та рівні оптимізації складних технічних систем.
- •31. Зведення багатокритеріальних задач до однокритеріальної.
- •32. Глобальні властивості систем
- •33. Методика багатокритеріального вибору раціональних структур.
- •34.Кількість інформації як міра відповідності випадкових процесів
- •35.Ранжування критеріїв по їх важливості методом Перстоуна.
- •36.Метод комплексної оцінки структур
- •37.Принципи рішення добре структурованих проблем.
- •38.Статистичний розв’язок як вибір.
- •39. Парадокси голосування.
- •40.Сутність задач системного проектування та природа багатоканальності
- •41.Дискретне представлення сигналів.
- •42.Переоцінка альтернатив на основі байєсівського підходу.
- •43.Описання вибору на мові бінарних відношень.
- •44.Стаціонарні системи.
- •45.Ранжування проектів методом парних порівнянь.
- •46.Метод функціонально-вартісного аналізу
- •47.Ентропійна оцінка узгодженості експертів.
- •48.Вибір як реалізація цілі.
- •49.Принципи формалізації евристичної інформації.
- •50.Диференціальна ентропія.
- •51.Знаходження паретівської множини.
- •62. Катастрофи та властивість адаптації
- •63. Вибір раціональної стратегії з використанням множини критеріїв
- •64. Загальна математична модель динаміки
18.Фундаментальна властивість ентропії випадкового процесу.
Особливе значення ентропія набуває у зв'язку з тим, що вона пов'язана з дуже глибокими, фундаментальними властивостями випадкових процесів. Покажемо це на прикладі процесу з дискретним часом і дискретним кінцевим безліччю можливих станів.
Назвемо кожне таке стан «символом», безліч можливих станів - «алфавітом», їх число m - «обсягом алфавіту». Число можливих послідовностей довжини n, очевидно, дорівнює mn. Поява конкретної послідовності можна розглядати як реалізацію одного з mn можливих подій. Знаючи ймовірності символів і умовні ймовірності поява наступного символу, якщо відомий попередній (у разі їх залежності), можна обчислити ймовірність P (C) для кожної послідовності С. Тоді ентропія безлічі {C}, за визначенням, дорівнює H N =-ΣP (C) ⋅ log (P (C)). На множині {C} можна задати будь-яку числову функцію F N (C), яка, очевидно, є випадковою величиною. Визначимо F N (C) c допомогою співвідношення F N (C) = - [1 / n] ⋅ logP (C). Математичне сподівання цієї функції M {F N (C)} = ΣP (C) ⋅ F N (C) = - [1 / n] ΣP (C) ⋅ log (P (C)), M {- [1 / n] ⋅ log (P (C))} = H N / N Lim (M) {- [1 / n] ⋅ log (P (C))} = H. Це співвідношення є одним із проявів більш загального властивості дискретних Ергодична процесів. Виявляється, що не тільки математичне сподівання величини F N (C) при n прагне до нескінченності має своїм межею H, але й сама ця величина F N (C) прагне до H при n прагне до нескінченності. Іншими словами, як би малі не були e> 0 і s> 0, при достатньо великому n справедливо нерівність P {| [1 / n] ⋅ log (P (C)) + H |> ε} <δ тобто близькість F N (C) до H при великих n є майже достовірною подією. Для більшої наочності сформульоване фундаментальна властивість випадкових процесів зазвичай викладають таким чином. Для будь-яких заданих e> 0 і s> 0 можна знайти таке no, що реалізація будь-якої довжини n> no розпадаються на два класи:1.група реалізацій, ймовірність P (C) яких задовольняє нерівності | [1 / n] ⋅ log (P (C)) + H | <ε 2..група реалізацій, ймовірності яких цьому нерівності не задовольняють.Сумарні ймовірності цих груп дорівнюють відповідно 1-s і s, то перша група називається «високоймовірною», а друга - «малоймовірною».Це властивість Ергодична процесів призводить до ряду важливих наслідків, з яких три заслуговують особливої уваги.3. незалежно від того, якими є ймовірності символів і які статистичні зв'язки між ними, всі реалізації високоймовірною групи приблизно рівноймовірно. Це наслідок, зокрема, означає, що при відомій імовірності P (C) однією з реалізацій високоймовірною групи можна оцінити число N 1 реалізацій в цій групі: N 1 = 1 / P (C).4.Ентропія H N з високою точністю дорівнює логарифму числа реалізацій в високоймовірною групі: H N = n * H = log N 15.При великих n високоймовірною група зазвичай охоплює лише незначну частку всіх можливих реалізацій (за винятком випадку рівноймовірно і незалежних символів, коли всі реалізації рівноймовірно і і H = log m).Дійсно, зі співвідношення (9) маємо N 1 = альфа NH
Суворе доказ фундаментального властивості Ергодична процесів тут не наводиться. Однак слід зазначити, що в простому випадку незалежності символів це властивість є наслідком закону великих чисел. Дійсно, закон великих чисел стверджує, що з імовірністю, близькою до 1, у довжиною реалізації i-й символ, що має ймовірність P I зустрінеться приблизно NP I раз. Отже ймовірність реалізації високоймовірною групи є P (C) = Π {P I N ⋅ P I } -log (P (C)) =-N ⋅ Σp I ⋅ Log (P I ) = n ⋅ N що і доводить справедливість фундаментального властивості в цьому випадку.