
- •1.Класифікація проблем за ступенем їх структуризації.
- •2.Описання систем з кінцевим числом станів.
- •3.Випадковий процес – математична модель сигналів
- •4.Кількість інформації як міра знятої невизначеності.
- •5.Модель "чорного ящика".
- •6.Пошук альтернативи із заданими властивостями.
- •7.Модель структури системи.
- •8.Частотно-часове представлення сигналів.
- •9.Поняття невизначеності.
- •10.Зв'язок між формальною та змістовною моделями
- •11.Критерій для оптимізації рішень в умовах ризику та невизначеності.
- •12.Структуризація кінцевої мети у вигляді дерева цілей
- •13.Принципи рішення слабоструктурованих проблем.
- •14.Принцип узгодженого оптимуму Парето
- •16.Стійкість систем
- •17.Пошук нових технічних рішень на базі морфологічного аналізу.
- •18.Фундаментальна властивість ентропії випадкового процесу.
- •19.Емерджентність як результат агрегування.
- •20.Основні етапи та методи системного аналізу.
- •21. Стохастичні системи.
- •22. Процедура структуризації проблеми у вигляді дерева рішень.
- •23. Методика структурного аналізу з використанням функції корисності.
- •24 Керовані та некеровані динамічні системи.
- •25. Поняття та основні напрямки математичної статистики.
- •26. Динамічні моделі систем.
- •27. Складність систем
- •28. Модель складу системи.
- •29. Кількість інформації в індивідуальних подіях.
- •30. Цикли проектування та рівні оптимізації складних технічних систем.
- •31. Зведення багатокритеріальних задач до однокритеріальної.
- •32. Глобальні властивості систем
- •33. Методика багатокритеріального вибору раціональних структур.
- •34.Кількість інформації як міра відповідності випадкових процесів
- •35.Ранжування критеріїв по їх важливості методом Перстоуна.
- •36.Метод комплексної оцінки структур
- •37.Принципи рішення добре структурованих проблем.
- •38.Статистичний розв’язок як вибір.
- •39. Парадокси голосування.
- •40.Сутність задач системного проектування та природа багатоканальності
- •41.Дискретне представлення сигналів.
- •42.Переоцінка альтернатив на основі байєсівського підходу.
- •43.Описання вибору на мові бінарних відношень.
- •44.Стаціонарні системи.
- •45.Ранжування проектів методом парних порівнянь.
- •46.Метод функціонально-вартісного аналізу
- •47.Ентропійна оцінка узгодженості експертів.
- •48.Вибір як реалізація цілі.
- •49.Принципи формалізації евристичної інформації.
- •50.Диференціальна ентропія.
- •51.Знаходження паретівської множини.
- •62. Катастрофи та властивість адаптації
- •63. Вибір раціональної стратегії з використанням множини критеріїв
- •64. Загальна математична модель динаміки
27. Складність систем
Сложность системы – это свойство, обусловленное внутренней закономерностью системы, которое определяет несколько важных параметров, включая пространственную структуру и свойства протекающих в этой структуре процессов. Такое определение сложности понимается как определенная физическая характеристика природы.
Иногда сложность и нелинейность рассматриваются как синонимы. Так как именно нелинейность внутренних закономерностей лежит в основе сложности природных систем. Чем сложнее какой-либо процесс или чем сложнее геометрическая форма какого-нибудь объекта, тем более она нелинейна.
Сегодня можно выделить две основные формы сложности систем: структурную (геометрическую) и динамическую. Очевидно, что в принципе можно выделить и другие формы сложности систем. Например, иерархическую и алгоритмическую сложность. Алгоритмическая сложность лежит во многих программных системах. Это наиболее сложные объекты, создаваемые человеком, хотя их структура и динамика относительно просты.
Динамическая, структурная, алгоритмическая и иерархическая сложность систем привлекает больше внимания потому, что человек именно с проявлением нелинейности природы имеет ежедневные отношения.
28. Модель складу системи.
Модель складу системи
Цілісність і відокремленість — це зовнішні властивості системи. Внутрішність системи неоднорідна, що дає змогу розрізняти складові частини системи.
Елементами називають ті частини системи, що розглядаються як неподільні. Інші частини системи називаються підсистемами. У разі потреби можна ввести терміни, що відображають ієрархію частин (наприклад, "підпідсистеми" чи "підсистеми такого-то рівня").
Отримуємо модель складу системи, що описує підсистеми й елементи, з яких її утворено. Розглянемо спрощений приклад такої моделі (табл. 1).
Модель складу родини
Система |
Підсистема |
Елемент |
|
|
Чоловік |
|
|
Дружина |
|
Члени родини |
Предки |
РОДИНА |
|
Нащадки |
|
|
Інші родичі |
|
Майно родини |
Спільне житло та господарство |
|
Особисте майно членів родини |
|
Зрозуміло, що в наведеному прикладі елементи "спільне житло та господарство" й "особисте майно членів родини" можна розглядати як підсистеми другого рівня (або підпідсистеми) й описати елементи, з яких вони складаються. Якщо ж наша мета — скласти модель будь-якої родини, то подальша деталізація відображатиме лише деякі родини (можливо, більшість), а не родину взагалі.
29. Кількість інформації в індивідуальних подіях.
В ряде практических случаев оказывается необходимым рассмотреть информационное описание конкретной пары состояний, оценить содержание информации в конкретной реализации сигнала. Тот факт, что некоторые сигналы несут информации намного больше, чем другие, виден на примере того, как отбираются новости средствами массовой информации (о рождении шестерых близнецов сообщают практически все газеты мира, а о рождении двойни не пишут).
Допуская существование количественной меры информации (xi,yk), в конкретной паре (xi,yk) естественно потребовать, чтобы индивидуальное и среднее количество информации удовлетворяли соотношению
I(X,Y) - M{i(xi,yk)} = ∑p(xi,yk)⋅i(xi,yk) (5)
Хотя равенство имеет место не только при равенстве всех слагаемых, сравнение формул (5) и, например, (4) наталкивает на мысль, что мерой индивидуальной информации в дискретном случае может служить величина
i(xi,yk) = log{p(xi/yk)/p(xi)} = log{p(yk/xi)/p(yk)} = log{p(xi,yk)/[p(xi)⋅p(yk)]}. (6)
а в непрерывном — величина i(x,y) = ln{p(x/y) / p(x)} = ln{{p(y/x) / p(y)} = ln{p(x,y) / p(x)p(y)}, (7)
называемая «информационной плотностью». Свойства этих величин согласуются с интуитивными представлениями и, кроме того, доказана единственность меры, обладающей указанными свойствами. Полезность введения понятия индивидуального количества информации проиллюстрируем на следующем примере.