Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Інформаційні ресурси_ навчальний посібник_ В. Я...doc
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
1.55 Mб
Скачать

В.Я. Яковенко

Інформаційні ресурси: Навчальний посібник / В.Я.Яковенко. – Донецьк: ДонНУ, 2005. – 202 с

У навчальному посібнику викладено теоретичні і практичні аспекти створення та використання інформаційних ресурсів.

Наведено методи інформаційного моделювання, захисту інформації, управління знаннями, обґрунтування національних інформаційних ресурсів, електронного урядування.

Для викладачів, наукових робітників, аспірантів і студентів зі спеціальності "Документознавство і інформаційна діяльність".

Донецьк, 2005

ЗМІСТ

1. ІНФОРМАЦІЯ, ДОКУМЕНТ, ІНФОРМАЦІЙНІ РЕСУРСИ 4

  1. Інформація: визначення, властивості, вимірювання 4

  2. Документні ресурси 13

  3. Інформаційні ресурси 18

2. ІНФОРМАЦІЙНІ РЕСУРСИ І КЕРУВАННЯ ЗНАННЯМИ 27

  1. Штучний інтелект і представлення знань 27

  2. Інтелектуальний та людський капітал 35

  3. Керування знаннями 42

3. ІНФОРМАТИЗАЦІЯ І СИСТЕМА НАЦІОНАЛЬНИХ ІНФОРМАЦІЙНИХРЕСУРСІВ 52

  1. Інформатизація: сутність та розвиток в Україні і світі 52

  2. Інформатизація та інформаційний ринок 58

  3. Система національних інформаційних ресурсів України 66

4. ІНФОРМАЦІЙНІ РЕСУРСИ INTERNET 74

  1. Internet і гіпертекст 74

  2. Інформаційні ресурси Internet 81

  3. Комерційне використання Internet 88

5. БЕЗПЕКА ІНФОРМАЦІЙНИХ РЕСУРСІВ І СИСТЕМ 98

  1. Інформаційна безпека 98

  2. Основи ( рівні) інформаційної безпеки 104

  3. Модель взаємодії відкритих систем і методи їх захисту 112

  4. Використання відкритого і секретного ключів. Електронний цифровийпідпис 120

6. СТВОРЕННЯ ТА ФУНКЦІОНУВАННЯ ЕЛЕКТРОННОГО УРЯДУ 127

  1. Світовий досвід створення електронного уряду 127

  2. Особливості створення електронного уряду в Україні 141

  3. Розвиток окремих напрямів електронного урядування в Україні 149

7. ІНФОРМАЦІЙНЕ МОДЕЛЮВАННЯ 160

  1. Особливості функціонального моделювання 160

  2. UML і об'єктно-орієнтоване моделювання 169

ПЕРЕЛІК ПОСИЛАНЬ 199

1. Інформація, документ, інформаційні ресурси

1.1. Інформація: визначення, властивості, вимірювання

Інформація – це відомості про суб'єкти, об'єкти, явища та процеси. Інформація – документовані або публічно оголошені відомості про події та явища, що відбуваються у суспільстві, державі та навколишньому природному середовищі, які є об'єктом зберігання, пересилання та перетворення.

Таблиця 1.1. Визначення інформації різними науками

Наука

Визначення інформації

Інформатика

Продукт взаємодії даних та адекватних до них методів

Інформаційні системи

Сукупність відомостей про навколишній світ (об'єкти, явища, події, процеси тощо), які зменшують міру існуючої невизначеності, неповноти знань, відчужені від їх творця і що стали повідомленнями (вираженими певною мовою у вигляді знаків, зокрема й записаними на матеріальних носіях), які можна відтворювати шляхом передачі людьми усним, письмовим, або іншим способом.

Гуманітарні науки

Сукупність відомостей, знань

Теорія зв'язку

Відомості, що є об'єктом зберігання, передачі та переробки.

Математичні науки

Сукупність кількісних даних, які висловлені за допомогою формул чи графіків і які використовуються для збору та обробки даних

Біологія

Сукупність хімічних закодованих сигналів, що передаються від одного живого об'єкта іншому або від клітин, тканин, органів іншим у процесі розвитку

Кібернетика, фізика

Кількісна міра усунення ентропії (невизначеності), міра організації системи

Філософія

Властивість матеріальних об'єктів та процесів зберігати та народжувати визначений стан, що в різних речовинно-енергетичних формах може бути переданий від одного об'єкта іншому; ступінь (міра) упорядкованості об'єкта (системи)

Наведені офіційні терміни не вичерпують змісту поняття "інформація", яке застосовується дуже часто поряд з речовиною та енергією як третій компонент буття (табл. 1.1).

Для певного класу завдань "інформація – це вторинна властивість речі – носія, що за своєї актуалізації реципієнтом змінює його стан і поведінку тією мірою, що не зводиться тільки до обміну між ними енергією та речовиною".

Інформація – це природна реальність, що несе в собі характерні ознаки предметів та явищ природи, які проявляються у просторі та часі.

-4-

Інформація є нематеріальною сутністю, керуючим фактором, програмою дій для матеріальних, природних та соціальних процесів: нематеріальна інформація керує матеріальним світом.

Інформація є ресурсом та продуктом інтелектуальної діяльності і виконує функції як природні (першооснова матеріального світу, програма саморозвитку матерії; формування живої речовини), так і соціально-економічні (формування особистості та суспільства, засіб комунікації, мотивації, культурний (соціальний) код, регулювання речовинно-енергетичних систем).

Інформація – це: повідомлення, форма відображення, категорія розрізнення, ступінь свободи. Наведений перелік підходів визначення інформації відображає різні аспекти багатопланового природного явища, котрим є інформаційна реальність.

Заслуговують уваги наведені шість рівнів інформаційної реальності:

  1. первинні фундаментальні сутності, які визначають організаційну першооснову матеріальної субстанції у Всесвіті та на Землі (фундаментальні фізичні закони природи, інформаційні коди атомів, молекул, їх частин, програми саморегуляції неживої природи тощо);

  2. вторинні інформаційні сутності, які виникають як результат саморегуляції природи (генетичні програми (геном), що визначають самоорганізацію живих організмів, біологічних видів, зв'язки, що визначають функціонування біологічних співтовариств, екосистем);

  3. інформаційні сутності, що є результатом розвитку живої природи (інформаційний код мозку людини, нервові відчуття живих організмів, інтелект людини та вищих тварин, суспільні сутності та ін.);

  4. інформаційні продукти інтелекту та суспільства (емоції, мови, мотивація, знання, образи, плани, технології, здібності та вміння виконувати роботу, соціальні цінності та закони, правила та ін.);

-5-

  1. вторинні інформаційні продукти інтелекту та суспільства (генетична інформація від створених людиною біологічних видів, інформаційна продукція, створена за допомогою комп'ютерних програм, штучні системи, що самоорганізуються та ін.);

  2. продукти діяльності систем, що самоорганізуються.

Більшість поглядів на сутність інформації можна об'єднати двома основними підходами: атрибутивним та функціональним.

Згідно з уявленнями представників атрибутивної концепції, інформація – невід'ємна внутрішня властивість усіх матеріальних об'єктів, і пізнавальний процес є декодуванням інформації, що існує у предметах реального світу.

Представники функціональної концепції вбачають нерозривний зв'язок інформації з управлінням, із функціонуванням систем (технічних, біологічних, соціально-кібернетичних), які самоорганізуються і самокеруються, та не визнають існування інформації у неживому світі. Саму інформацію вони визначають як зміст сигналу або повідомлення, одержані кібернетичною системою із зовнішнього середовища.

Поняття об'єктивності інформації є відносним тому, що методи, які використовують до визначення даних, є суб'єктивним. Більш об'єктивною вважається інформація, до якої методи додають менший суб'єктивний елемент.

Для знакової інформації характерні властивості, що відрізняють її від речовини та енергії: фіксація, дієвість, реалізація.

До атрибутів інформації можна віднести: матеріальний носій, джерело, отримувача та канал зв'язку між джерелом та отримувачем.

До одного термінологічного ряду з інформацією відносяться поняття "дані" та "знання".

Дані – відомості, призначені для використання.

У системах обробки інформації дані – інформація, подана у формалізованій формі, придатній для зберігання, обробки, пересилання та інтерпретації користувачами, прикладними процесами чи технологічними засобами.

-6-

Знання – сукупність фактів, закономірностей, відношень та евристичних правил, що відбиває рівень обізнаності з проблемами деяких предметних галузей.

Практичне значення наукових підходів до визначення терміна "інформація" пов'язано з вирішенням проблеми вимірювання інформації. На початок XXI ст. сформувались основні підходи до вивчення та вимірювання інформації: структурно-синтаксичний, атрибутивний, функціонально-кібернетичний, аксіоматичний, інтуїтивний, логіко-семантичний, прагматичний, образний.

Згідно з якістю та трьома формами адекватності знакової інформації (синтаксична, семантична, прагматична) виконується її вимірювання.

До споживчих показників якості інформації можна віднести репрезентативність, змістовність, повноту, доступність, актуальність, своєчасність, стійкість, точність, достовірність і цінність.

Якщо не брати до уваги зміст інформації і дивитись на інформаційні повідомлення інформації як на послідовність знаків, сигналів, то їх можна представити у бітах, а виміряти байтами, кілобайтами, мегабайтами, гігабайтами терабайтами...

При використанні структурних вимірювань інформації враховується тільки дискретна побудова інформаційного комплексу: кількість інформаційних елементів у ньому, а також комбінацій з них.

При структурному вимірюванні розрізняють геометричну, комбінаторну та адитивну міри інформації.

Визначення кількості інформації геометричним методом полягає у вимірюванні довжини лінії, площі або об'єму геометричної моделі певного інформаційного комплексу у певних дискретних одиницях (квантах).

При комбінаторній оцінці кількості інформації, коли потрібно врахувати різні комбінації інформаційних елементів, використовують формули перестановок, сполучень, розміщень.

Перестановки – це комбінації, які складаються з одних і тих же елементів і відрізняються лише порядком їх розташування.

-7-

Але визначати кількість інформації як кількість комбінаторних комбіна­цій не завжди доцільно.

Хай є N станів системи S, коли кожний стан системи можна закодувати, наприклад, кодами з основою 2 довжини d, то цю довжину необхідно вибрати так, щоб кількість усіх різних комбінацій була не меншою, ніж N. Найменше число, з яким це можливо, або міра різноманіття множини станів системи, задасться формулою Р. Хартлі (адитивна міра):

H = K*logaN, (1.1)

де К – коефіцієнт пропорційності; а – основа системи міри.

Коли вимір здійснюється за експотенціальною системою, то К=1, H=lnN(ніm), коли у системи з основою 2, то K=1 ln2, H=log2 N(6im), коли у системі з основою 10, то K=1/lg 10, H=lg N(діт).

Формула Хартлі не враховувала розрізнення і різницю N станів системи.

Міра К. Шеннона також дає оцінку інформації

І=- (1.2)

де п - число станів системи; Рі – ймовірність переходу системи у стан і, при­чому сума усіх Рі дорівнює 1.

Коли всі стани системи рівноймовірні (Pi =l/n), то I=log2 n - формула Шеннона співпадає з формулою Хартлі.

Невизначеність кожної ситуації можна охарактеризувати величиною, яка називається ентропією. Ентропія у термодинаміці означає ймовірність теплового стану речовини, у математиці – ступінь невизначеності ситуації або задачі, в інформатиці - властивість джерела віддавати інформацію.

Формула Шеннона характеризує ентропію (невизначеність стану) сис­теми і дійсна для замкнутих, а не для складних та відкритих систем.

У термодинаміці формула

S= Рі ln Pi (1.3)

відома як ентропія або міра хаосу у системі (де к - коефіцієнт Больцмана).

Якщо порівнювати / (1.2) та S (1.3), то можна зробити висновок, що /-інформаційна ентропія (ентропія через брак інформації про систему або в си­стемі). Коли ентропія дорівнює нулю, тоді маємо максимальну інформацію. Основне співвідношення між ентропією та інформацією

I + S(\og2e)/k = const (1.4)

Основною позитивною рисою формули Шеннона є те, що вона не вра­ховує сематичні, якісні та індивідуальні властивості системи, а також те, що вона враховує різницю та неоднакову ймовірність різних станів системи, має статистичний характер.

Збільшення (зменшення) міри Шеннона свідчить про зменшення (збіль­шення) ентропії (організованості) системи. До того ж ентропія може бути мі­рою дезорганізації систем від повного хаосу (S=S max) і повної інформацій­ної невизначеності (1=1 тіп) до повного порядку (S=S min) та повної інфор­маційної визначеності (1=1max) у системі.

Інформаційно-термодинамічний підхід пов'язує величину ентропії системи з нестачею інформації про її внутрішню структуру, коли кількість станів визначає, по суті, ступінь неповноти наших відомостей про систему.

Термодинамічна міра (ентропія) може бути застосована до систем, які існують у тепловій рівновазі, але для систем, які далекі від теплової рівноваги, наприклад, живих біосистем, кібернетичних систем, така міра, як ентро­пія, є менш придатною.

Спочатку у статистичній теорії інформації (теорія зв'язку) ентропія була розрахована для ансамблю (повна група подій або поле сумісних подій з розподілом ймовірностей, які у сумі складають одиницю), але згодом була використана і для об'єднання (сукупності двох і більше взаємозалежних ансамблів дискретних випадкових змінних).

Імовірність добутку (збігу) спільних залежних подій X і Y дорівнює добутку безумовних ймовірностей Р(х) або Р(у) та умовних ймовірностей Р(у/х) або Р(х/у)

-9-

Р(х,у)=Р(х) *Р(у/х) =Р(у) *Р(х/у) (1.5)

З об'єднанням пов'язані поняття безумовної, умовної, спільної (суміс­ної) та взаємної ентропії (табл. 1.2).

Коли ансамбль X відображає джерело інформації, а ансамбль Y - при­ймача (споживача) інформації, тоді різні види ентропії мають наступний зміст: Н (х) - безумовна ентропія джерела, або середня кількість інформації на один символ, яку видає джерело; Н (у) - безумовна ентропія приймача (споживача), або середня кількість інформації на символ, яку одержує при­ймач (споживач);

Таблиця 1.2. Ентропія об'єднання

Найменування

Означення

Співвідношення

Безумовна ентропія

Н(х)

Н(У)

Н(х)>Н(х/у)

Н(х)=Н(х/у)+Н(ху)

Н(у)>Н(у/х)

Н (у)=Н (у/х)+Н (х Y)

Умовна ентропія

Н(х/у)

Н (у/х)

Н(х/у)=Н(х)-Н(ху)

Н(у/х)=Н(у)-Н(ху)

Сумісна (спільна) ентропія

Н (х, у)=

=Н (у, х)

Н (х, у)=Н (х)+Н (у/х)=

= Н (у)+Н (х/у)=

=Н(х)+Н(у)-Н(ху)

Взаємна ентропія

Н (х у)=

=Н (у х)

Н(ху) = Н(х)-Н(х/у)=

=Н (у) - Н (у/х)=

=Н(х,у)-Н(х/у) -Н(у/х)

Н (у х) - взаємна ентропія системи передачі - прийому в цілому, або середня кількість інформації на пару (переданого й прийнятого) символів;

Н (х/у) - умовна ентропія X відносно Y, або кількість інформації про джерело, коли відомо, що приймається Y;

Н (у/х) - умовна ентропія Y відносно X, або кількість інформації у при­ймача (споживача), коли відомо, що передається X.

-10-

Коли в системі передачі інформації по каналу зв'язку немає втрат та спотворювань, то умовні ентропії дорівнюють нулю:

Н(у/х) = Н (х/у)=0, а кількість взаємної інформації дорівнює ентропії джерела або приймача:

І=(х,у) =Н (ху)-Н (х) = Н (у). (1.6)

Енергія (ресурс) та інформація (структура) - дві фундаментальні характери­стики систем реального світу, які пов'язують їх речові, просторові та часові хара­ктеристики. Коли А - множина "енергетичного походження", а В - множина "ін­формаційного походження", то можна визначити енергоінформаційну міру (сис­тем А↔В) як відношення, зв'язок між цими множинами f:A↔В. Вона повинна відображати механізм взаємозв'язків фізико-інформаційних та речовинно енер­гетичних структур та процесів у системі.

Кількість інформації за теорією, що базується на алгоритмах перетво­рення (алгоритмічна теорія інформації), визначається як довжина програми, що дає змогу перетворити об'єкті в об'єкт В, тобто

1 = L[G(A,B)], (1.7)

де L - функція отримання довжини програми (у байтах чи бітах), a G - про­грама перетворення.

Вимірювання кількості інформації в семантичній теорії інформації, що базу­ється на фігурах математичної логіки, можливе лише для тверджень за формулою

l=logF(S), (1.8)

де F - функція кількості інформації, що залежить від кількості можливих станів у складових (змінних і предикатах) твердження; S - саме твердження.

Семантичні міри кількості інформації загалом не можуть бути безпосеред­ньо використані для вимірювання значеннєвого змісту, оскільки стосуються зне­особлення інформації, яка не відбиває змістового ставлення до об'єкта.

Означення інформації у всіх перелічених теоріях (знята невизначеність;

-11-

довжина програми перетворення об'єкта; функція від кількості станів у твер­дженні) певною мірою суперечить її означенню (інформація - це відомості, сукупність даних, знань).

У концепції образної теорії інформації [50] кількість інформації в образі (Іо), яка сприймає і розпізнає кібернетичну систему, визначається за формулою

Io = q-1L[G(o)], (1.9)

де q - імовірність правильного розпізнання образу; Lфункція отримання довжини розгорнутої (розцикленої) програми розпізнання; G - програма роз­пізнання образу, біти; О - образ.

Інформація (у концепції образної теорії) - це розпізнані образи (сигнали, записані в сенсорну пам'ять скануючих пристроїв кібернетичної системи), які кібернетична система зберігає в пам'яті.

З позиції образної концепції теорії інформації імовірнісна (шеннонівська) теорія є теорією кодування інформації, а образна теорія, не перехрещую­чись із ймовірною, усуває недоліки алгоритмічної теорії.

Прагматична міра інформації означає корисність, цінність для управ­ління і зумовлюється особливостями використання даної інформації у певній системі. Цінність інформації може визначати ефективність здійснюваного на її основі управління за формулою.

Iкв(Y) = P(Y/B)-P(Y), (1.10)

де Iкв - цінність інформаційного повідомлення В для системи управління Y;

P(Y) - апріорний очікуваний економічний ефект функціонування - системи управління Y;

P(Y / В) - очікуваний ефект функціонування системи Y за умови, що для управління буде використано інформацію, яка міститься у повідомленні В.

-12-