
- •1. Системи й задачі їхнього аналізу
- •1.1. Властивості систем
- •1.2. Кількість інформації
- •1.3. Класифікація систем
- •2. Елементи теорії множин
- •2.1. Основні поняття й терміни
- •2.2. Операції над множинами
- •2.3.Властивості операцій над множинами
- •2.4. Алгебри
- •3. Елементи теорії графів
- •4. Моделі систем
- •4.1. Цілі моделювання систем
- •4.2. Рівні моделювання
- •4.2.1. Класифікація рівнів моделювання
- •4.2.2. Задачі аналізу властивостей систем, розв'язувані на концептуальному рівні
- •4.2.3. Задачі, розв'язувані на топологічному рівні
- •I. Визначення структурних властивостей системи
- •II. Визначення еквівалентних передач
- •III. Виділення підсистем у системі
- •4.2.4. Моделі структурного рівня
- •4.2.5. Моделі параметричного рівня
- •4.3. Класифікація моделей систем
- •4.4. Моделі систем типу Мс
- •4.5. Моделі вимог типу мт
- •5. Сучасна методологія наукових досліджень і методи системного аналізу
- •5.1. Основні поняття
- •5.2. Методологія системного аналізу
- •5.3. Загальна схема прийняття рішень
- •5.4. Основні етапи прийняття рішень
- •5.5. Аналітичні методи системного аналізу
1. Системи й задачі їхнього аналізу
1.1. Властивості систем
Поняття «система» не має, а на думку деяких авторів, і не може мати вичерпного й однозначного визначення. Це пов'язане з первинністю, аксіоматичним характером поняття, оскільки поняття «системність» дуже часто носить суб'єктивний характер і оцінюється через інші поняття, які також є первинними.
Блез Паскаль писав: «Я вважаю, що пізнати частини без знання цілого так само неможливо, як пізнати ціле без знання його частин».
Теорія систем вивчає загальні проблеми зв'язку цілого і його частин. У більше вузькому розумінні це питання, пов'язані з рішенням наступних проблем:
- визначення змісту проблем;
- призначення й (або) визначення цілей при прийнятті рішень;
- пошук шляхів рішення проблем;
- проектування й (або) побудова систем для досягнення цілей і т.д.
Так що ж буде розумітися під терміном «система»? Досить устояної є думка, що «система» («S») володіє мінімум чотирма властивостями:
1) Цілісність і членимість
Цілісність означає, що система сприймається навколишнім середовищем як єдиний елемент цього середовища. Членимість означає, що в системі можна виділити деякі елементи, сукупність яких разом з їхньою взаємодією й утворить систему. При цьому сукупність елементів має якісно нові властивості, які дозволяють розглядати їх як елемент більш складної системи. Нова якість, емерджентність, - це те, що визначає «обличчя» системи, ідентифікує її цілісність, і тому воно первинно для системи.
2) Інтегративні якості
Властивості, що забезпечують цілісність, які є у системи, але немає в елементів, що утворюють систему, називаються інтегративною якістю (ИК), вони визначають емерджентність. Важливо, що ИК не може бути виявлене як завгодно глибоким вивченням властивостей елементів. Наприклад, команда (бригада) може виконати задачі, які члени команди (бригади) окремо виконати не в змозі.
3) Зв'язку (відносення)
Система, як правило, взаємодіє з іншими системами (Fi, i=1,2,…),які для неї є зовнішнім середовищем, зв'язок здійснюється між деякими (або всіма) елементами, що належать даній системі, і елементами інших систем (див. мал. 1.1). Інші системи - це зовнішнє середовище для системи S.
Якщо взаємодія системи S із зовнішнім середовищем не розглядається (у теоретичних дослідженнях, наприклад), тоді система називається закритої або автономної. Множина змінних (координат), через які система S взаємодіє із зовнішнім середовищем, часто розділяють на підмножини вхідних X={xi, i=1,2…}і вихідних Y={yj; j=1,2…}координат системи.
У реальному світі той самий елемент може входити в різні системи. Взаємодія систем носить різноплановий характер, тому істотним питанням є визначення границь системи й виділення змінних Х,Y. Причому значення мають тільки зв'язку, що визначають інтегративну якість, тобто «імідж» системи.
Зв'язок підсистем кількісно задається множиною характеристик зв'язків В={bi, i=1,2,…}, до числа яких належить фізичне наповнення (енергетичний, інформаційний, речовинний, механічний зв'язок і т.д.), а також потужністю, спрямованістю й т.д.
Рис. 1.1 - Графічне подання системи й середовища
Формально зв'язок може бути
представлена відображенням :Х
за умови, що метрики множин Х и
зв'язані функцією f(b):
.
Метрика (міра, відстань)– це спосіб виміру відстані між елементами множин а,b,сХ.
Метрика повинна задовольняти деяким визначальним властивостям:
а) ≥ 0 при будь-яких а,b,c;
б) (a,b) = 0 тоді й тільки тоді, коли a = b (аксіома ідентичності);
в) (a,b) = (b,a) (аксіома симетричності);
г) (a,b) (а,с) + (с,b) (аксіома трикутника).
Пари (Х,Х) називається метричним простором.
Приклади метрик:
а) (а,b) = |a - b|;
б)
2(a,b)
=
- евклідова метрика в евклідовому
просторі Rn,
в)
(а,b)
=
- чебишевска метрика;
г)
К(a,b)
=
- метрика Гельдера, К – ціле.
У загальному випадку - відношення бувають: унарні (самого із собою); бінарні (між двома елементами); тернарні (між трьома елементами); взагалі, - n-арні.
4) Організація
Уведемо в розгляд поняття «стан» елемента або системи.
Кількість станів (потужність множини станів) може бути звичайно, рахункова (кількість станів виміряється дискретно, але їхнє число нескінченно); потужності континуум (стани змінюються безупинно й число їх нескінченно й незліченно).
Стану можна описати через змінні стани. Якщо змінні - дискретні, то кількість станів може бути або кінцевим, або рахунковим. Якщо змінні - аналогові (безперервні), тоді - потужності континуум.
Мінімальна кількість змінних, через які може бути задане стан, називається фазовим простором. Зміна стану системи відображається у фазовому просторі фазовою траєкторією.
Рівняння стану системи:
Y = F(X, Z), (1.1)
де Z - змінні стани (вектор аналогових або дискретних величин),
Х - вхідні змінні, Y - вихідні змінні системи.
Однієї з найбільше часто використовуваних характеристик організації є ентропія (поворот, перетворення – грецьке).
Ентропія систем
Ступінь організації елементів у системі зв'язується зі зміною (зниженням) ентропії системи в порівнянні із сумарною ентропією елементів. Поняття ентропії уведене Больцманом для термодинамічних систем:
(1.2)
де
-
імовірність j-го стану (у теорії інформації
– події); m - можливе число станів (подій).
Наприклад, два елементи А и В можуть кожного приймати два рівноймовірністні стани: «0»і «1». Імовірність кожного стану:
Р1(А) = Р2(А) = Р1(В) = Р2(В) = 0,5.
Для одного елемента ентропія складе
Н(А) = Н(В) = -0,5 log20,5 - 0,5log20,5 = 1.
Ентропія двох елементів:
Н(А) + Н(В) = 1 + 1 = 2.
Допустимо, що система S елементів А и В може приймати три стани: «-1», «0», «1» з імовірностями Р1(S) = Р3(S) = 0,2; Р2 = 0,6.
Тоді
Н(S) = -2.0,2.log20,2 - 0,6.log20,6 = -0,4(-2,32) - 0,6(-0,737) = 1,37.
Ентропія системи S менше суми ентропій елементів А и В на
Н = Н(А) + Н(В) - Н(S) = 2 - 1,37 = 0,63.
Для розрахунку зміни ентропії системи через імовірності станів дуже часто використовується метод Колмогорова.
Припустимо, дана структурна схема (граф) станів підсистеми S (див. мал. 1.2). Вихідним станом системи з рівним ступенем імовірності може бути один із чотирьох станів, тобто
.
Будемо
вважати, що інтенсивності переходів
21,
32,
43,
14,
24
задані. Тоді можна показати, що швидкості
зміни ймовірності знаходження системи
в i-му стані визначаються як
,
(1.3)
де
;
n – число вузлів графа (кількість станів);
j
-
інтенсивності переходів по дугах, що
входить в i-й вузол;
ri – число дуг, що входять в i-й вузол;
k
- інтенсивності переходів по дугах, що
виходить із i-го вузла;
mi – число дуг, що виходять із i-го вузла;
Pi і Pj – імовірності знаходження системи в i-м і j-м станах відповідно.
Відмітимо, що
.
Стале значення ймовірності знаходження системи в i-м стані визначається з умови
.
Тоді для системи з n станами маємо систему з (n + 1) рівнянь із n невідомими:
;
.
(1.4)
Одне з рівнянь (1.4) можна відкинути, тому що воно може бути отримане з (n - 1) що залишилися.
Приклад. Приймемо 21 = 0,1, 32 = 0,2, 43 = 0,3, 14 = 0,4, 24 = 0,5. Тоді одержуємо:
14.Р4
- 21.Р1
= 0
21.Р1 + 24.Р4 - 32.Р2 = 0
32.Р2 - 43.Р3 = 0
43.Р3 – (14 + 24).Р4 = 0
Р1 + Р2 + Р3 + Р4 = 1.
Із системи відкинемо друге рівняння й одержимо:
-
0,1.Р1
+ 0.Р2
+
0.Р3
+
0.Р4
= 0
0.Р1 + 0,2.Р2 – 0,3.Р3 + 0.Р4 = 0
0.Р1 + 0.Р2 + 0,3.Р3 – 0,9.Р4 = 0
1Р1 + 1.Р2 + 1.Р3 + 1.Р4 = 1.
Рішення отриманої системи: Р1 = 0,32, Р2 = 0,36, Р3 = 0,24, Р4 = 0,08.
Розрахунок ентропії ведеться по формулі
.
Для вихідного стану
Э0 = -4.0,25 . log20,25 = 2,
для кінцевого стану
Эк = -(0,32 . log20,32 + 0,36 . log20,36 + 0,24 . log20,24 + 0,08 . log20,08) = 1,835.
Тобто, зміна ентропії становить
Э = Э0 – Эк = 2 – 1,835 = 0,165.
Існують два основних підходи до розрахунку ентропії систем і цінності інформації.
Перший підхід заснований на декомпозиції вихідної задачі на етапи обчислення ймовірностей апостеріорної й апріорної ймовірності елементарних подій.
Методика розрахунку включає:
- декомпозицію вихідної задачі на послідовність таких елементарних подій, апріорна ймовірність яких відома, а апостеріорна може бути легко розрахована;
- розрахунок ентропії (або цінності інформації) кожної елементарної події;
- обчислення зміни ентропії вихідного стану стосовно кінцевого (або цінності інформації) шляхом підсумовування змін ентропії елементарних етапів (переходів, подій).
Даний підхід дозволяє уникнути обчислення ймовірності складних подій.
Другий підхід ґрунтується на використанні умовних ймовірностей подій. Останні іноді розрахувати досить складно.
Таким чином, ентропія виступає як міра хаосу, безладдя і її зниження означає збільшення організації.
Для інформаційних систем ступінь організації дуже часто залежить від кількості інформації, що може бути використана для керування.