- •Лекція 1. Економічна інформація і інформаційні системи
- •1.1. Поняття економічної інформації
- •1.2. Інформаційна система
- •1.3. Структура і склад інформаційної системи
- •Информационные системы
- •1.3.1. Компоненти системи обробки даних
- •1.3.2. Організаційні компоненти іс
- •1.4. Послідовність розробки іс
- •Лекція 2. Економічна інформація, її класифікація і структурні одиниці
- •2. Поняття, склад і зміст інформаційного забезпечення автоматизованої системи обліку, контролю і аудиту
- •Лекція 3
- •3.4. Внутримашинное інформаційне забезпечення
- •Лекція 4 Визначення інформації та її кількісні характеристики
- •Оцінювання та вимірювання економічної інформації
3.4. Внутримашинное інформаційне забезпечення
Створення автоматизованих систем нового покоління пов'язане з широким впровадженням ЕОМ, розподілених баз даних і систем передачі інформації, а також з широким впровадженням ПЭВМ, «інтелектуальних терміналів», різким зниженням вартості елементної бази і витрат на функціонування розподілених систем. Тому при описі внутримашинного інформаційного забезпечення ми зупинимося на складі і забезпеченні локальних і розподілених баз даних.
На Україні і за рубежем в цей час нараховується біля 1500 автоматизованих банків даних і біля 10 тисяч підприємств, що використовують обчислювальні мережі і розподілену обробку інформації.
Розподілений банк даних являє собою систему логічно інтегрованих і територіально розподілених баз даних, язикових, програмних, технічних і організаційних засобів, призначених для створення, ведення і обробки розподіленої інформації. Для розподілених баз даних характерне накопичення, оновлення і зберігання даних в географічно розподілених вузлах обчислювальної мережі, логічна інтеграція територіально розподілених даних, процесів обробки, оновлення і пошуку інформації, забезпечення автоматизованої взаємодії між локальними базами даних в процесі рішення задач користувача.
Основою концепції функціонування розподілених баз даних є реалізація многоуровневого підходу, що забезпечує інтеграцію і незалежність різних способів уявлення даних про предметну область користувача. Виділяють три основних рівні представлення інформації в базі даних зовнішній, логічний і фізичний.
На зовнішньому рівні задається інтегрований опис сукупності даних в термінах предметних областей користувачів. На логічному і фізичному рівнях використовуються логічні і фізичні структури локальних баз даних.
У сучасних розподілених базах даних на зовнішньому і логічному рівнях використовуються ієрархічні, мережеві і реляционные моделі даних. Ієрархічні і мережеві моделі даних набули поширення завдяки їх зручності, простоті і можливості ефективної реалізації на сучасних ЕОМ. Реляционная модель даних була представлена як альтернатива мережевої і ієрархічної з метою забезпечення незалежності даних і максимальної гнучкості при формуванні відповіді на недетермінований запит.
Застосування ПЭВМ в інформаційних системах дозволило впровадити високошвидкісні, помехоустойчивые і надійні обчислювальні мережі. Для оптимізації передачі даних в обчислювальних мережах використовуються «файл-сервер». Вони реалізовуються у вигляді окремих блоків, працюючих під управлінням спеціального програмного забезпечення. Застосування «файла-серверів» дозволяє відмовитися від використання потужностей ЕОМ для реалізації функцій по управлінню передачею даних, ефективно використати операційні ресурси, забезпечити якісно новий рівень локальних і глобальних обчислювальних систем, що створюються.
Лекція 4 Визначення інформації та її кількісні характеристики
Вперше кількісна оцінка невизначеності системи була проведена в 1928 p. американським інженером-зв'язківцем Хартлі. Вважаючи, що різниця між окремими станами визначається в першу чергу психологічними факторами і приймаючи однакову ймовірність знаходження системи в будь-якому з можливих станів, він запропонував кількісну оцінку міри невизначеності у вигляді
H=logk ,
де k - кількість всіх можливих станів системи.
Якщо ймовірності знаходження системи в стані дорівнює Рi, ступінь невизначеності стану системи можна описати, виходячи з усередненого значення невизначеності кожного з окремих станів за формулою Шеннона
Н = - Р1 logP1 – P2 logP 2 - ... - Pk logP k = - Рi logPi ,
Ця величина називається ентропією.
Ентропію можна трактувати як міру невизначеності системи, що стикується з визначенням ентропії в термодинаміці, як міри невпорядкованості.
Зауважимо, що основа логарифма тут особливого значення не має, оскільки заміна однієї основи на іншу зведеться просто до множення величини ентропії на постійний множник, або модуль переходу, інакше, до заміни одиниці вимірювання ентропії.
З цієї формули очевидно, що ентропія системи, кількість можливих станів якої дорівнює 1 (або детермінованої системи) , дорівнює 0. Таке саме значення ентропії можна отримати , якщо прийняти ймовірності будь-якого стану за одиницю.
Ентропія може приймати тільки невід'ємні значення. Реальна цінність поняття ентропії визначається в першу чергу тим, що “ступінь невизначеності станів” виявився саме тією характеристикою, яка може підвести кількісне підґрунтя під процеси, пов'язані з передачею інформації.
Нехай ступінь невизначеності системи а дорівнює Н(а). Відмінність цієї величини від нуля відповідає більшій чи меншій визначеності конкретного стану системи. Яка-небудь подія чи спостереження b може обмежити кількість можливих станів системи а і зменшити міру їх невизначеності. При цьому, звичайно, необхідною умовою є, щоб результат впливу цієї події чи повідомлення був заздалегідь невідомим. Той факт , що здійснення b зменшує ступінь невизначеності а можна інтерпретувати як зменшення (або хоча б не зростання) початкової ентропії системи а. Якщо b не змінює визначеності а , то його здійснення не змінює ентропії системи і
Нb(а) = Н (b) (2.3)
Якщо результат події чи спостереження повністю визначає стан, в якому буде знаходитись система, то ентропія сисіеми зменшується до нуля:
Нb(а) = 0 (2.4)
Таким чином, різниця І(b,а)=Н(а)-Нb(а) (2.5
показує, наскільки здійснення b зменшує невизначеність а , тобто скпьки нового дізнаємось ми про можливі стани системи після події чи спостереження Цю різницю називають кількістю інформації відносно події в системі.
Іншими словами, міра інформації є тією ж самою , що і міра ентропії Звідси витікає одне з фундаментальних положень теорій систем. Оскільки інформація може надходити тільки з довкілля , то замкнена система функціонує тільки в напрямку не зменшення ентропії. Інакше кажучи, замкнена система приречена на зростання невизначеності своїх станів, що на практиці приводить до руйнації системи , якщо вона не отримує інформації з довкілля.
Надходження інформації в систему можна трактувати як процес зменшення її ентропії.
Визначення інформації як явища , зворотного ентропії має цілком теоретичний характер і використовується в теорії інформації.
Кібернетика трактує поняття інформації як будь-які дані відносно будь-кого або будь-чого, причому під визначення інформації підпадають тільки нові, корисні для одержувача відомості. Інформація в кібернетичному аспекті визначається як співвідношення між даними та їх адресатом.
