
- •Системний аналіз конспект лекцій
- •Передмова
- •Модуль і. Система, системність та Інформація тема №1. Основні методи та процедури системного аналізу в дослідженні систем
- •1.1. Історичний розвиток концепції системного підходу
- •1.2. Наукова база системного аналізу
- •1.3. Системні ресурси суспільства
- •1.4. Основні принципи системного аналізу
- •1.5. Основні процедури системного аналізу
- •1.6. Загальна класифікація систем. Великі та складні системи
- •1.7. Основні топологічні структури систем. Опис систем з різними структурами
- •Лінійні структури:
- •Ієрархічні (деревоподібні) структури:
- •Мережеві структури:
- •Матричні структури:
- •1.8. Основні ознаки, цілі та задачі соціальних систем. Цілеспрямоване поводження системи
- •1.9. Системний підхід в аналізі міжнародних відносин
- •Питання для самоконтролю
- •Тема №2. Опис та моделювання систем
- •2.1. Морфологічний опис систем
- •2.2. Еволюція, розвиток та функціонування системи. Саморозвиток системи. Гнучкість системи. Стійкість систем
- •2.3. Загальна схема керування системою. Керування в системі і керування системою. Функції і задачі керування системою
- •2.4. Моделювання систем
- •2.5. Причинно-наслідковий зв'язок між системами. Когнітологія та когнітивна структуризації систем
- •2.6. Синергетичний підхід в аналізі систем
- •Питання для самоконтролю
- •Тема №3. Поняття інформації та види інформації в системі
- •3.1. Класифікація інформації по різних ознаках
- •3.2. Базові поняття інформаційних рішень (факт, знання, відомості, дані, інформація, інформаційний ресурс) в міжнародних відносинах
- •3.3. Інформаційні ресурси соціальних систем
- •3.4. Документ, як інформаційний ресурс
- •Питання для самоконтролю
- •Тема №4. Організація інформації для керування системою
- •4.1. Методи одержання та використання інформації
- •4.2. Міра, кількість та ентропія інформації в системі
- •4.3. Інформаційне керування системою. Інформаційне середовище. Інформаційні системи керування
- •Модуль іі. Аналіз випадкових величин в соціальних системах тема №5. Основні властивості випадкових величин
- •5.1. Загальні поняття випадкових величин в системі та їх основні характеристики. Дискретні та неперервні величини
- •5.2. Класифікація подій. Методи аналізу ймовірностей випадкових подій
- •5.3. Розрахунок ймовірностей подій, як співвідношення кількості сприятливих результатів до загального числа результатів
- •5.4. Розрахунок ймовірностей подій за допомогою графів можливих результатів
- •5.5. Розрахунок ймовірностей складних подій, що представлені у вигляді комбінаторних елементарних подій
- •5.6. Функція розподілу випадкової величини. Числові характеристики випадкових величин (мода, медіана, математичне очікування, середньоквадратичне відхилення, дисперсія, коефіцієнт варіації)
- •5.7. Закони розподілу випадкових величин (параметрична статистика)
- •Питання для самоконтролю
- •Тема №6. Шкалювання випадкових величин. Перевірка статистичної гіпотези
- •6.1. Номінальна, рангова, інтервальна та відносна шкала (непараметрична статистика)
- •6.2. Поняття статистичної гіпотези
- •6.3. Критерій "хі-квадрат" перевірки статистичної гіпотези
- •6.4. Використання коефіцієнта конкордації для перевірки статистичних гіпотез
- •Питання для самоконтролю
- •Тема №7. Аналіз взаємозалежності
- •7.1. Залежності та взаємозв'язок випадкових подій в системі. Функціональна та статистична залежність
- •7.2. Аналіз взаємної спряженості випадкових величин
- •7.3. Коефіцієнт Пірсона. Коефіцієнт Чупрова
- •7.4. Коефіцієнт контингенції. Коефіцієнт асоціації
- •Питання для самоконтролю
- •Тема №8. Кореляційний аналіз
- •8.1. Кореляція випадкових величин. Кореляційний аналіз. Коефіцієнт кореляції
- •8.2. Дослідження залежностей кореляції від вибору шкали вимірювання
- •Питання для самоконтролю
- •Тема №9. Регресійний та факторний аналіз
- •9.1. Метод регресійного аналізу. Лінійна регресія
- •9.2. Загальна характеристика факторного аналізу
- •Інтерпретація факторів.
- •9.3. Центроідний метод л. Терстоуна
- •Питання для самоконтролю
- •Тема №10. Автоматизований аналіз міжнародних подій
- •10.1. Комп'ютерні системи аналізу даних. Пакети прикладних програм статистичного аналізу. Класифікація статистичних пакетів прикладних програм
- •10.2. Загальна організація інструментарію пакетів прикладних програм
- •10.3. Використання електронних таблиць в системному аналізі міжнародних відносин
- •Питання для самоконтролю
- •Джерела інформації
Питання для самоконтролю
-
Охарактеризувати залежності та взаємозв'язок випадкових подій в системі.
-
Порівняти функціональну та статистичну залежність.
-
Визначити властивості взаємозалежності.
-
Проаналізувати величину "хі-квадрат", як показник спряження величин в системі.
-
Проаналізувати коефіцієнт Пірсона, як кількісний показник спряження величин в системі.
-
Проаналізувати коефіцієнт Чупрова, як кількісний показник спряження величин в системі.
-
Порівняти коефіцієнт Чупрова та коефіцієнт Пірсона.
-
Проаналізувати коефіцієнт контингенції, як кількісний показник спряження величин в системі.
-
Проаналізувати коефіцієнт асоціації, як кількісний показник спряження величин в системі.
-
Порівняти коефіцієнт контингенції та коефіцієнт асоціації.
Джерела інформації : [1, 4, 8, 10, 15, 17]
Тема №8. Кореляційний аналіз
8.1. Кореляція випадкових величин. Кореляційний аналіз. Коефіцієнт кореляції
Кореляційний аналіз - сукупність методів виявлення кореляційної залежності між випадковими величинами чи ознаками.
Для числової оцінки можливого зв'язку між двома випадковими величинами: Y(із математичним очікуванням My і середньоквадратичним відхиленням Sy) та X (із математичним очікуванням Mx і середньоквадратичним відхиленням Sx) використовується коефіцієнт кореляції:
де n - кількість спостережень,
, що ґрунтується
на використанні змішаного моменту між
випадковими величинами Х та У.
Цей коефіцієнт може набувати значення від -1 до +1 —залежно від тісноти зв'язку між даними випадковими величинами.
Основні властивості коефіцієнта кореляції :
-
Числове значення коефіцієнта кореляції знаходиться в межах:
-1Rxy1.
-
Залежність між X і Y тим сильніша, чим Rxy за модулем ближче до 1.
-
Якщо Rxy>0, тоді зі зростанням X у середньому зростає і Y.
-
Якщо Rxy<0, тоді при зростанні X величина Y у середньому зменшується.
-
При Rxy=0, величини X і Y називають некорельованими ї їх можна вважати випадковими та незалежними.
-
При Rxy=1 спостерігається лінійний зв'язок між X і Y (саме тому часто говорять про лінійну кореляцію).
Значення коефіцієнта парної кореляції вказує на близькість залежностей властивостей X і Y до функціональної та про ступінь інтенсивності їх зв'язку. Слабка кореляція, тобто слаба "чутливість" однієї властивості до змін іншої через її "недостатню реакцію" (тільки в середньому), зумовлює слабку "керованість" однієї властивості шляхом зміни іншої.
В системному аналізі доводиться вирішувати питання і про зв'язок декількох (більше за двох) випадкових величин, тобто питання про множинну кореляцію.
Нехай X, Y і Z - випадкові величини, за результатами спостереження над якими встановлено їх математичні очікування Mx, My, Mz і середньоквадратичні відхилення Sx, Sy, Sz.
Тоді можна знайти парні коефіцієнти кореляції Rxy, Rxz, Ryz за наведеною вище формулою. Але цього явно недостатньо - адже для кожного із трьох коефіцієнтів відсутні відомості про вплив третьої випадкової величини.
Якщо змінна X корелює зі змінною Y, враховуючи вплив всіх інших незалежних змінних, таку кореляцію іноді називають приватною кореляцією.
Якщо одна величина корелює з іншою, то це може бути відображенням того факту, що вони обидві корелюють з третьою величиною чи із сукупністю величин.
У випадках множинного кореляційного аналізу розраховуються приватні коефіцієнти кореляції — наприклад, оцінка впливу Z на зв'язок між X і Y:
Rxy.z =
Коефіцієнти множинної кореляції Rx.yz, Ry.zx, Rz.xy визначають який зв'язок існує між даною випадковою величиною і сукупністю інших. Формули для обчислення коефіцієнтів побудовані за тими ж принципами - урахування зв'язку однієї з величин із всіма іншими в сукупності.