- •Системний аналіз конспект лекцій
- •Передмова
- •Модуль і. Система, системність та Інформація тема №1. Основні методи та процедури системного аналізу в дослідженні систем
- •1.1. Історичний розвиток концепції системного підходу
- •1.2. Наукова база системного аналізу
- •1.3. Системні ресурси суспільства
- •1.4. Основні принципи системного аналізу
- •1.5. Основні процедури системного аналізу
- •1.6. Загальна класифікація систем. Великі та складні системи
- •1.7. Основні топологічні структури систем. Опис систем з різними структурами
- •Лінійні структури:
- •Ієрархічні (деревоподібні) структури:
- •Мережеві структури:
- •Матричні структури:
- •1.8. Основні ознаки, цілі та задачі соціальних систем. Цілеспрямоване поводження системи
- •1.9. Системний підхід в аналізі міжнародних відносин
- •Питання для самоконтролю
- •Тема №2. Опис та моделювання систем
- •2.1. Морфологічний опис систем
- •2.2. Еволюція, розвиток та функціонування системи. Саморозвиток системи. Гнучкість системи. Стійкість систем
- •2.3. Загальна схема керування системою. Керування в системі і керування системою. Функції і задачі керування системою
- •2.4. Моделювання систем
- •2.5. Причинно-наслідковий зв'язок між системами. Когнітологія та когнітивна структуризації систем
- •2.6. Синергетичний підхід в аналізі систем
- •Питання для самоконтролю
- •Тема №3. Поняття інформації та види інформації в системі
- •3.1. Класифікація інформації по різних ознаках
- •3.2. Базові поняття інформаційних рішень (факт, знання, відомості, дані, інформація, інформаційний ресурс) в міжнародних відносинах
- •3.3. Інформаційні ресурси соціальних систем
- •3.4. Документ, як інформаційний ресурс
- •Питання для самоконтролю
- •Тема №4. Організація інформації для керування системою
- •4.1. Методи одержання та використання інформації
- •4.2. Міра, кількість та ентропія інформації в системі
- •4.3. Інформаційне керування системою. Інформаційне середовище. Інформаційні системи керування
- •Модуль іі. Аналіз випадкових величин в соціальних системах тема №5. Основні властивості випадкових величин
- •5.1. Загальні поняття випадкових величин в системі та їх основні характеристики. Дискретні та неперервні величини
- •5.2. Класифікація подій. Методи аналізу ймовірностей випадкових подій
- •5.3. Розрахунок ймовірностей подій, як співвідношення кількості сприятливих результатів до загального числа результатів
- •5.4. Розрахунок ймовірностей подій за допомогою графів можливих результатів
- •5.5. Розрахунок ймовірностей складних подій, що представлені у вигляді комбінаторних елементарних подій
- •5.6. Функція розподілу випадкової величини. Числові характеристики випадкових величин (мода, медіана, математичне очікування, середньоквадратичне відхилення, дисперсія, коефіцієнт варіації)
- •5.7. Закони розподілу випадкових величин (параметрична статистика)
- •Питання для самоконтролю
- •Тема №6. Шкалювання випадкових величин. Перевірка статистичної гіпотези
- •6.1. Номінальна, рангова, інтервальна та відносна шкала (непараметрична статистика)
- •6.2. Поняття статистичної гіпотези
- •6.3. Критерій "хі-квадрат" перевірки статистичної гіпотези
- •6.4. Використання коефіцієнта конкордації для перевірки статистичних гіпотез
- •Питання для самоконтролю
- •Тема №7. Аналіз взаємозалежності
- •7.1. Залежності та взаємозв'язок випадкових подій в системі. Функціональна та статистична залежність
- •7.2. Аналіз взаємної спряженості випадкових величин
- •7.3. Коефіцієнт Пірсона. Коефіцієнт Чупрова
- •7.4. Коефіцієнт контингенції. Коефіцієнт асоціації
- •Питання для самоконтролю
- •Тема №8. Кореляційний аналіз
- •8.1. Кореляція випадкових величин. Кореляційний аналіз. Коефіцієнт кореляції
- •8.2. Дослідження залежностей кореляції від вибору шкали вимірювання
- •Питання для самоконтролю
- •Тема №9. Регресійний та факторний аналіз
- •9.1. Метод регресійного аналізу. Лінійна регресія
- •9.2. Загальна характеристика факторного аналізу
- •Інтерпретація факторів.
- •9.3. Центроідний метод л. Терстоуна
- •Питання для самоконтролю
- •Тема №10. Автоматизований аналіз міжнародних подій
- •10.1. Комп'ютерні системи аналізу даних. Пакети прикладних програм статистичного аналізу. Класифікація статистичних пакетів прикладних програм
- •10.2. Загальна організація інструментарію пакетів прикладних програм
- •10.3. Використання електронних таблиць в системному аналізі міжнародних відносин
- •Питання для самоконтролю
- •Джерела інформації
7.2. Аналіз взаємної спряженості випадкових величин
В якості числової характеристики, що визначає взаємний вплив випадкових величин можуть використовуватися коефіцієнти взаємної спряженості. В основі коефіцієнтів взаємної спряженості лежить показник спряження 2 між розподілами двох властивостей, тобто визначення ступеня збіжності (спряженості) емпіричних умовних розподілів випадкових величин (XУ) при різних значеннях Yj з безумовним розподілом випадкової величини X за формулою:
, де
WH - теоретична відносна частота, WE - експериментальна відносна частота, k - кількість інтервалів на шкалі.
Чисельник формули виражає різницю між частотами теоретичного й емпіричного розподілів кожного доданка, піднесену до квадрата; дріб визначає відносну частку розбіжності для кожного доданка; сума виражає загальну відносну розбіжність емпіричного й теоретичного розподілів.
Якщо емпіричний і теоретичний розподіли випадкової величини збігаються, то різниці між відповідними частотами дорівнюють нулю, і 2 =0. Чим більші ці різниці, тим більше емпіричний розподіл не збігається з теоретичним законом.
7.3. Коефіцієнт Пірсона. Коефіцієнт Чупрова
Сам по собі 2 залежить від n і не є нормованою величиною тісноти зв'язку. Коефіцієнт зв'язку між властивостями не повинен залежати від кількості спостережень і має перебувати в межах від нуля до одиниці. Кількісними показниками спряженості величин є два коефіцієнти взаємної спряженості:
коефіцієнт Пірсона:
коефіцієнт Чупрова:
де (k - 1)(l - 1) = v - число ступенів свободи.
Мінімальне значення кожного з цих коефіцієнтів дорівнює нулю. Результат 2 дорівнює 0, виражає факт незалежності Х від У.
Максимальне значення кожного з цих коефіцієнтів дорівнює одиниці. Результат 2 дорівнює знаменнику, виражає факт сильної залежності Х від У.
Хоча коефіцієнти Пірсона і Чупрова відображають одне й те саме явище, вони не рівні у загальному випадку. В загальному випадку коефіцієнт Пірсона перевищує коефіцієнт Чупрова в квадратний корінь з числа ступенів свободи:
7.4. Коефіцієнт контингенції. Коефіцієнт асоціації
Формулу для обчислення коефіцієнта взаємної спряженості Чупрова використовують також для визначення зв'язку, коли обидві змінні вимірюються за номінальною шкалою. Традиційний підхід до аналізу зв'язку між номінальними ознаками базуються на перевірці припущення про статистичну незалежність розглянутих ознак у випадкових величин.
Спільний розподіл двох таких величин Х та У наведено в таблиці:
Х |
"НІ" |
"ТАК" |
СУМА |
У |
|||
"НІ" |
a |
b |
a+b |
"ТАК" |
c |
d |
c+d |
СУМА |
a+c |
b+d |
n |
Якщо обидві змінні вимірюються за номінальною шкалою, кількість інтервалів на шкалі для них k=l=2 (існує тільки два значення "ТАК", "НІ"), відповідно число ступенів свободи v=(k-1)(l-1)=(2-1)(2-1)=1.
Коефіцієнт взаємної спряженості для двох змінних, які вимірюються за номінальною шкалою, називається коефіцієнтом контингенції та розраховується за формулою:
Для оцінки ступеня зв'язку між двома змінними, що вимірюються за номінальною шкалою, крім коефіцієнта контингенції, можна використовувати коефіцієнт асоціації:
Обидва коефіцієнти Φ і Q можуть набувати значення від -1 до +1 і дорівнюють 0, якщо величини статистично незалежні.
Коефіцієнт Φ приймає значення + 1, якщо b=0 і с=0. Значення -1 коефіцієнт Φ приймає у випадку, коли а=0 і d=0.
Коефіцієнт Q набуває значення +1 у випадку повного позитивного зв’язку, тобто коли c=0 чи b=0. Значення -1 коефіцієнт Q набуває у випадку повної негативної зв'язаності, коли а=0 чи d=0.
Коефіцієнт контингенції завжди менший за коефіцієнт асоціації. Зв’язок між величинами вважається підтвердженим, якщо Q0.5 чи Φ 0.3.
Самий точний прогноз досягається в ситуації, коли для кожного із значень однієї ознаки можна однозначно визначити відповідне значення іншої. Таким чином, сучасне трактування поняття "повний зв'язок" між величинами Х і Y означає, що знання значення Х усуває будь яку невизначеність у прогнозуванні значення Y. Для зменшення невизначеності необхідно збільшити кількість інформації про систему.