
- •Тема 1 Загальні положення інформаційних систем…………5
- •Тема 2 Економічна інформація…………………..……………15
- •Тема 3 Створення та склад автоматизованого банку даних (абд)………………………………………………………………74
- •Тема 4 Інформаційні системи і технології у банківській справі ………………..……………………………………..……..97
- •Тема 5 Інформаційні системи в інших фінансових установах……………………………………….……………….133
- •Тема 1 Загальні положення інформаційних систем
- •1.1 Поняття інформації, інформаційної системи (іс) та інформаційної технології (іт)
- •1.2 Класифікація інформаційних систем
- •1.3 Структура інформаційних систем
- •1.4 Забезпечення інформаційних систем
- •1.5 Особливості інформаційних систем
- •1.6 Основні підходи при створенні інформаційних систем
- •1.7 Принципи проектування інформаційних систем
- •1.8 Етапи проектування інформаційних систем
- •Тема 2 Економічна інформація
- •2.1 Поняття економічної інформації
- •2.2 Властивості економічної інформації
- •2.3 Основні вимоги до економічної інформації
- •2.4 Види економічної інформації
- •2.5 Фіксування економічної інформації
- •2.6 Структуризація економічної інформації
- •2.6.1 Логічна структура даних
- •2.6.2 Фізична структура даних
- •2.6.3 Лінійні та нелінійні структурні дані
- •2.6.4 Ієрархічний метод класифікації інформації
- •2.6.5 Фасетний метод класифікації інформації
- •2.7 Оцінювання економічної інформації
- •2.7.1 Основні поняття теорії інформації
- •2.7.2 Ентропія та інформація
- •2.7.3 Адекватність економічної інформації
- •2.8 Кодування економічної інформації
- •2.8.1 Системи кодування економічної інформації
- •2.8.2 Методи кодування економічної інформації
- •2.8.3 Задачі кодування повідомлень
- •2.8.4 Методи контролю правильності заповнення і переносу даних з первинних документів
- •2.9 Категорії класифікаторів, порядок їх розроблення, упровадження та ведення
- •2.9.1 Методика виконання робіт з класифікації та кодування даних
- •2.9.2 Класифікатори економічної інформації
- •2.9.3 Розроблення та ведення класифікаторів
- •2.9.4 Єдина система класифікації та кодування техніко-економічної інформації
- •2.9.5 Науково-методичні основи класифікації та кодування теі
- •2.10 Штрихове кодування інформації
- •2.11 Графічне кодування
- •2.12 Економічна ефективність автоматизованої інформаційної системи (аіс)
- •Тема 3 Створення та склад автоматизованого банку даних (абд)
- •3.1 Передумови створення та основні переваги баз даних (бд)
- •3.2 Поняття і класифікація автоматизованого банку даних (абд)
- •3.3 Склад автоматизованого банку даних (абд)
- •3.4 Типи моделей даних
- •3.5 Характеристика рівнів моделей баз даних
- •3.6 Створення оптимальної моделі баз даних
- •3.7 Поняття сховища даних та основи його створення
- •3.8 Використання баз даних у мережах
- •3.8.1 Телекомунікаційні інформаційні технології у фінансових установах
- •3.8.2 Архітектура локальних мереж
- •3.8.3 Технологічні особливості використання бд у мережах
- •Тема 4 Інформаційні системи і технології у банківській справі
- •4.1. Схеми побудови автоматизованих банківських систем (абс)
- •4.2 Структура та характеристика складових частин автоматизованої банківської системи
- •4.3 Види організації систем міжбанківських розрахунків
- •Залежно від режиму функціонування кореспондентського рахунку розрізняють дві системи міжбанківських розрахунків:
- •4.4 Завдання, функції, структура та архітектура системи електроннх платежів (сеп)
- •4.5 Принципи функціонування, типи файлів обміну та маршрутизація платежів в системі електроних платежів Національного банку України
- •4.6 Архітектура системи електронних міжбанківських переказів (семп) нбу
- •4.7 Моделі управління кореспондетськими рахунками комерційних банків у системі електронних платежів
- •4.8 Електронна пошта Національного банку України як засіб електронного обміну в банківській системі України
- •4.9 Системи обміну фінансовими документами між клієнтом та банком
- •4.10 Міжнародна міжбанківська телекомунікаційна мережа swift
- •Тема 5 Інформаційні системи в інших фінансових установах
- •5.1 Автоматизована система фінансових розрахунків
- •5.1.1 Призначення та особливості побудови системи
- •5.1.2 Структура асфр і характеристика її підсистем
- •5.1.3 Технологія розв'язання задач асфр у центральних і місцевих фінансових органах
- •5.2 Автоматизація обробки інформації у податковій системі
- •5.2.1 Характеристика податкової системи України з погляду обробки інформації
- •Загальна характеристика аіс «податки»
- •5.2.3 Зовнішньоінформаційні зв’язки
- •5.2.4 Напрямки вдосконалення інформатизації податкової системи України
- •5.3 Автоматизовані інформаційні системи у страхуванні
- •5.3.1 Призначення і мета створення системи
- •5.3.2 Структура аіс «страхування»
- •5.3.3 Склад і структура функціональної і забезпечувальної частин аіс «страхування»
- •5.4 Інформаційні системи у статистиці
- •5.5 Системи підтримки прийняття рішень
- •5.6 Виконавчі інформаційні системи (віс)
- •5.7 Корпоративні інформаційні системи (кіс)
- •5.8 Автоматизація діяльності на фондовому ринку
- •5.9 Розвиток інформаційних систем і технологій у діяльності кредитних спілок
- •6.050104 "Фінанси"
- •6.050104 "Фінанси",
2.7 Оцінювання економічної інформації
2.7.1 Основні поняття теорії інформації
Теорія інформації – це наука яка вивчає кількісні закономірності, пов’язані з отриманням, передачею, обробкою та збереженням інформації. Ці властивості притаманні ІС, в якій здійснюється обмін інформацією між різними ланками системи. Передана інформація повинна бути певним чином «закодованою»- переведена на мову спеціальних символів та сигналів.
Одним із завдань теорії інформації є знаходження найбільш оптимальних методів кодування, які дозволяють передати задану інформацію за допомогою мінімальної кількості символів. Це завдання вирішується як за відсутності так і за наявності перешкод в каналі зв’язку. Другою задачею теорії інформації є знаходження перепускної властивості каналу зв’язку для передачі інформації без затримок та перешкод.
Як об’єкт, про який передається інформація, будемо брати систему X, яка випадковим чином може знаходитися в тому чи іншому стані. Для цієї системи маємо певну ступінь невизначеності, яка залежить від кількості її можливих станів та ймовірних станів.
Як невизначена система застосовується спеціальна характеристика – ентропія Н(Х), яка обчислюється за формулою
,
де М- математичне сподівання;
-
ймовірність появи події
.
Залежно від основи логарифма а маємо різні одиниці вимірювання ентропії (а=2- в бітах; а=10- в дитах; а=е – в натах). Перехід від однієї основи логарифму до іншої здійснюється за допомогою формули
.
Наприклад:
Основні властивості ентропії:
Вона дорівнює нулю, якщо одне з станів системи достовірне, а інші – недостовірні.
При заданій кількості станів вона набуває максимального значення за умови рівноймовірності цих станів (
).
Якщо декілька незалежних систем об’єднуються в одну, то їх ентропії додаються.
На практиці виникає
потреба в знаходженні ентропії складної
системи, об’єднавши дві чи більше
простих систем. Під об’єднанням двох
систем Х,У розуміється складна система
(Х,У), стан якої (
)
подає усі можливі комбінації станів
систем Х,У. Знайдемо ентропію складної
системи:
Якщо системи Х та
У незалежні, то
.
Для залежних систем маємо умовну ентропію системи У за умови, що система Х знаходиться в стані :
та середню або повну ентропію системи У відносно Х:
Величина
характеризує
ступінь невизначеності системи У, яка
залишилася після того, як стан системи
Х повністю визначився.
Теорема. Якщо дві системи Х та У об’єднуються в одну, то ентропія об’єднаної системи дорівнює ентропії однієї з іі складових частин та додатку умовної ентропії другої частини відносно першої:
2.7.2 Ентропія та інформація
Кількість інформації будемо виміряти зменшенням ентропії тієї системи, для уточнення стану якої ці відомості призначені. Кількість інформації, здобутої при повному з’ясуванні стану деякої системи, дорівнює ентропії цієї системи. Тобто
.
Часткова інформація, отримана від окремого повідомлення, за умови, що система Х знаходиться в стані ,знаходиться за формулою
.
Якщо всі можливі
стани системи однаково рівноймовірні
,
то
.
Розглянемо систему з двома станами:
xi |
x1 |
x2 |
pi |
p1 |
p2 |
Для вимірювання інформації в двійкових одиницях можна умовно характеризувати її кількістю відповідей типу «так» або «ні», за допомогою яких можна здобувати таку саму інформацію. Максимальна інформація досягається за умови p1=p2=1/2 і Ix=1. Якщо інформація від будь-якого повідомлення дорівнює n двійковим одиницям, то вона рівносильна інформації, яка надається n відповідями «так» або «ні» на питання, поставлені таким чином, що «так» або «ні» однакової ймовірності.
Приклад. Дехто задумав ціле число від 1 до 8. Яку мінімальну кількість запитань типу «так» або «ні» треба поставити, щоб його вгадати?
Розв’язання.
Знайдемо інформацію, яка знаходиться
у повідомленні, яке число задумане. Всі
значення Х від 1 до 8 рівноймовірні
(р1=р2=…=р8=1/8),
тому
.
Мінімальну кількість питань, які треба
поставити для знаходження задуманого
числа, не більше ніж 3.
На практиці виникає потреба в спостереженні не над самою системою Х (вона є недосяжною для спостереження), а над іншою системою У, яка пов’язана з нею. Відмінність між системами Х та У може бути двох видів:
1 Відмінність за рахунок того, що деякі стани системи Х не знаходять відображення в системі У.
2 Відмінність за рахунок помилок, які виникають при вимірюванні параметрів системи Х та при передачі повідомлень.
Кількість інформації про систему Х, яке дає спостереження над системою У, обчислимо за формулою
.
Це є повна ( або
середня) інформація про систему Х, яка
знаходиться в системі У. Інформацію
будемо називати повною взаємною
інформацією, яка знаходиться у системах
Х та У. Якщо Х та У незалежні, то
і
.
У випадку коли стан системи Х повністю
відповідає стану системи У і навпаки,
то
і
.
Знайдемо повну взаємну інформацію через ентропії об’єднаної системи та її складових:
.
Після певних перетворень, враховуючи вищеназване, маємо
(1)
Приклад 1. Маємо дві системи Х та У об’єднані в одну (Х,У). Ймовірність стану об’єднаної системи задано таблицею:
-
x1
x2
x3
y1
0,1
0,2
0
y2
0
0,3
0
y3
0
0,2
0,2
Знайти повні умовні
ентропії
і
та повну взаємну інформацію
.
Розв’язання.
Знайдемо ймовірності подій хi та уj: р1=0,1; р2=0,7; р3=0,2; r1=0,3; r2=0,3; r3=0,4
та отримаємо таблиці умовних ймовірностей Р(yj/xi) :
-
x1
x2
x3
y1
1
0,2/0,7
0
y2
0
0,3/0,7
0
y3
0
0,2/0,7
1
та Р(xi/yj)
-
x1
x2
x3
y1
0,1/0,3
0,2/0,3
0
y2
0
1
0
y3
0
0,2/0,4
0,2/0,4
;
,
,
,
Приклад 2. Ймовірність отримання кредиту в банку дорівнює 20%. Припустимо, що завчасно робиться прогноз з отримання кредиту. Прогноз отримання кредиту буває помилковим приблизно в половині всіх випадків, а прогноз неотримання кредиту є помилковим в одному випадку з десяти. Яка кількість інформації в бітах знаходиться в повідомленні про отримання кредиту ?
Розв’язання. Запишемо такі події: А1-отримання кредиту; А2- неотримання кредиту; В1- прогноз видачі кредиту; В2 - прогноз невидачі кредиту:
Р(А1)=0,2 Р(А2)=0,8 Р(А1/В1)=0,5 Р(А1/В2)=1/10.
Будемо використовувати формулу повної ймовірності:
.
Маємо:
Знаходимо рішення системи Р(В1)=1/4 Р(В2)=3/4.
Для знаходження кількості інформації застосовуємо формулу (1)
Враховуючи, що Р(АВ)=Р(В)Р(А/В), маємо:
Р(А1 В 1)=Р(В1 )Р(А 1/В1 )=1/8 ; Р(А1 В2)=3/40;
Р(А2 В1)=1/8; Р(А2 В2)=27/40;
IY↔X =0,12 бітів.
Іноді необхідно
оцінити часткову інформацію про систему
Х, яка знаходиться в окремому повідомленні,
коли система У знаходиться в конкретному
стані уj.
Позначимо цю часткову інформацію
.
Враховуючи, що
, а також (1)
маємо
Для знаходження часткової інформації про подію хi, яка знаходиться в події уj, необхідно застосовувати формулу
Таким чином, часткова інформація про подію, яка отримується при повідомленні про іншу подію, дорівнює логарифму відношення ймовірності першої події після повідомлення до його ймовірності до повідомлення. Ця інформація може бути як додатною так і від’ємною.
Приклад. В урні маємо 3 білих та 4 чорних кулі. Витягли 4 кулі: 3 чорні та 1 білу. Знайти кількість інформації в бітах, яка знаходиться в спостережної події В відносно події А, наступна куля, яку будемо витягати, буде чорною.
Розв’язання