
- •В.Я. Яковенко
- •Донецьк, 2005
- •1. Інформація, документ, інформаційні ресурси
- •1.1. Інформація: визначення, властивості, вимірювання
- •1.2. Документні ресурси
- •1.3. Інформаційні ресурси
- •2. Інформаційні ресурси і керування знаннями
- •2.1. Штучний інтелект і представлення знань
- •2.2. Інтелектуальний та людський капітал
- •2.3. Керування знаннями
- •3. Інформатизація і система національних інформаційних ресурсів
- •3.1. Інформатизація: сутність та розвиток в Україні і світі
- •Інформаційні ресурси;
- •3.2. Інформатизація та інформаційний ринок
- •3.3. Система національних інформаційних ресурсів України
- •4.Інформаційні ресурси internet
- •4.1. Internet і гіпертекст
- •4.2.ІнформаційніресурсиInternet
- •4.3.КомерційневикористанняInternet
- •5.Безпекаінформаційнихресурсівісистем5.1.Інформаційнабезпека
- •5.3.Модельвзаємодіївідкритихсистеміметодиїхзахисту
- •5.4.Використаннявідкритогоісекретногоключів.Електроннийцифровийпідпис
- •6.Створеннятафункціонуванняелектронногоуряду6.1.Світовийдосвідстворенняелектронногоуряду
- •6.2.ОсобливостістворенняелектронногоурядувУкраїні
- •6.3.РозвитококремихнапрямівелектронногоурядуваннявУкраїні
- •7.2.UmLіоб'єктно-оріентованемоделювання
- •Перелікпосилань
- •83055,М.Донецьк,вул.Університетська,24
В.Я. Яковенко
Інформаційні ресурси: Навчальний посібник / В.Я.Яковенко. – Донецьк: ДонНУ, 2005. – 202 с
У навчальному посібнику викладено теоретичні і практичні аспекти створення та використання інформаційних ресурсів.
Наведено методи інформаційного моделювання, захисту інформації, управління знаннями, обґрунтування національних інформаційних ресурсів, електронного урядування.
Для викладачів, наукових робітників, аспірантів і студентів зі спеціальності "Документознавство і інформаційна діяльність".
Донецьк, 2005
ЗМІСТ
1. ІНФОРМАЦІЯ, ДОКУМЕНТ, ІНФОРМАЦІЙНІ РЕСУРСИ 4
Інформація: визначення, властивості, вимірювання 4
Документні ресурси 13
Інформаційні ресурси 18
2. ІНФОРМАЦІЙНІ РЕСУРСИ І КЕРУВАННЯ ЗНАННЯМИ 27
Штучний інтелект і представлення знань 27
Інтелектуальний та людський капітал 35
Керування знаннями 42
3. ІНФОРМАТИЗАЦІЯ І СИСТЕМА НАЦІОНАЛЬНИХ ІНФОРМАЦІЙНИХРЕСУРСІВ 52
Інформатизація: сутність та розвиток в Україні і світі 52
Інформатизація та інформаційний ринок 58
Система національних інформаційних ресурсів України 66
4. ІНФОРМАЦІЙНІ РЕСУРСИ INTERNET 74
Internet і гіпертекст 74
Інформаційні ресурси Internet 81
Комерційне використання Internet 88
5. БЕЗПЕКА ІНФОРМАЦІЙНИХ РЕСУРСІВ І СИСТЕМ 98
Інформаційна безпека 98
Основи ( рівні) інформаційної безпеки 104
Модель взаємодії відкритих систем і методи їх захисту 112
Використання відкритого і секретного ключів. Електронний цифровийпідпис 120
6. СТВОРЕННЯ ТА ФУНКЦІОНУВАННЯ ЕЛЕКТРОННОГО УРЯДУ 127
Світовий досвід створення електронного уряду 127
Особливості створення електронного уряду в Україні 141
Розвиток окремих напрямів електронного урядування в Україні 149
7. ІНФОРМАЦІЙНЕ МОДЕЛЮВАННЯ 160
Особливості функціонального моделювання 160
UML і об'єктно-орієнтоване моделювання 169
ПЕРЕЛІК ПОСИЛАНЬ 199
1. Інформація, документ, інформаційні ресурси
1.1. Інформація: визначення, властивості, вимірювання
Інформація – це відомості про суб'єкти, об'єкти, явища та процеси. Інформація – документовані або публічно оголошені відомості про події та явища, що відбуваються у суспільстві, державі та навколишньому природному середовищі, які є об'єктом зберігання, пересилання та перетворення.
Таблиця 1.1. Визначення інформації різними науками
Наука |
Визначення інформації |
Інформатика |
Продукт взаємодії даних та адекватних до них методів |
Інформаційні системи |
Сукупність відомостей про навколишній світ (об'єкти, явища, події, процеси тощо), які зменшують міру існуючої невизначеності, неповноти знань, відчужені від їх творця і що стали повідомленнями (вираженими певною мовою у вигляді знаків, зокрема й записаними на матеріальних носіях), які можна відтворювати шляхом передачі людьми усним, письмовим, або іншим способом. |
Гуманітарні науки |
Сукупність відомостей, знань |
Теорія зв'язку |
Відомості, що є об'єктом зберігання, передачі та переробки. |
Математичні науки |
Сукупність кількісних даних, які висловлені за допомогою формул чи графіків і які використовуються для збору та обробки даних |
Біологія |
Сукупність хімічних закодованих сигналів, що передаються від одного живого об'єкта іншому або від клітин, тканин, органів іншим у процесі розвитку |
Кібернетика, фізика |
Кількісна міра усунення ентропії (невизначеності), міра організації системи |
Філософія |
Властивість матеріальних об'єктів та процесів зберігати та народжувати визначений стан, що в різних речовинно-енергетичних формах може бути переданий від одного об'єкта іншому; ступінь (міра) упорядкованості об'єкта (системи) |
Наведені офіційні терміни не вичерпують змісту поняття "інформація", яке застосовується дуже часто поряд з речовиною та енергією як третій компонент буття (табл. 1.1).
Для певного класу завдань "інформація – це вторинна властивість речі – носія, що за своєї актуалізації реципієнтом змінює його стан і поведінку тією мірою, що не зводиться тільки до обміну між ними енергією та речовиною".
Інформація – це природна реальність, що несе в собі характерні ознаки предметів та явищ природи, які проявляються у просторі та часі.
-4-
Інформація є нематеріальною сутністю, керуючим фактором, програмою дій для матеріальних, природних та соціальних процесів: нематеріальна інформація керує матеріальним світом.
Інформація є ресурсом та продуктом інтелектуальної діяльності і виконує функції як природні (першооснова матеріального світу, програма саморозвитку матерії; формування живої речовини), так і соціально-економічні (формування особистості та суспільства, засіб комунікації, мотивації, культурний (соціальний) код, регулювання речовинно-енергетичних систем).
Інформація – це: повідомлення, форма відображення, категорія розрізнення, ступінь свободи. Наведений перелік підходів визначення інформації відображає різні аспекти багатопланового природного явища, котрим є інформаційна реальність.
Заслуговують уваги наведені шість рівнів інформаційної реальності:
первинні фундаментальні сутності, які визначають організаційну першооснову матеріальної субстанції у Всесвіті та на Землі (фундаментальні фізичні закони природи, інформаційні коди атомів, молекул, їх частин, програми саморегуляції неживої природи тощо);
вторинні інформаційні сутності, які виникають як результат саморегуляції природи (генетичні програми (геном), що визначають самоорганізацію живих організмів, біологічних видів, зв'язки, що визначають функціонування біологічних співтовариств, екосистем);
інформаційні сутності, що є результатом розвитку живої природи (інформаційний код мозку людини, нервові відчуття живих організмів, інтелект людини та вищих тварин, суспільні сутності та ін.);
інформаційні продукти інтелекту та суспільства (емоції, мови, мотивація, знання, образи, плани, технології, здібності та вміння виконувати роботу, соціальні цінності та закони, правила та ін.);
-5-
вторинні інформаційні продукти інтелекту та суспільства (генетична інформація від створених людиною біологічних видів, інформаційна продукція, створена за допомогою комп'ютерних програм, штучні системи, що самоорганізуються та ін.);
продукти діяльності систем, що самоорганізуються.
Більшість поглядів на сутність інформації можна об'єднати двома основними підходами: атрибутивним та функціональним.
Згідно з уявленнями представників атрибутивної концепції, інформація – невід'ємна внутрішня властивість усіх матеріальних об'єктів, і пізнавальний процес є декодуванням інформації, що існує у предметах реального світу.
Представники функціональної концепції вбачають нерозривний зв'язок інформації з управлінням, із функціонуванням систем (технічних, біологічних, соціально-кібернетичних), які самоорганізуються і самокеруються, та не визнають існування інформації у неживому світі. Саму інформацію вони визначають як зміст сигналу або повідомлення, одержані кібернетичною системою із зовнішнього середовища.
Поняття об'єктивності інформації є відносним тому, що методи, які використовують до визначення даних, є суб'єктивним. Більш об'єктивною вважається інформація, до якої методи додають менший суб'єктивний елемент.
Для знакової інформації характерні властивості, що відрізняють її від речовини та енергії: фіксація, дієвість, реалізація.
До атрибутів інформації можна віднести: матеріальний носій, джерело, отримувача та канал зв'язку між джерелом та отримувачем.
До одного термінологічного ряду з інформацією відносяться поняття "дані" та "знання".
Дані – відомості, призначені для використання.
У системах обробки інформації дані – інформація, подана у формалізованій формі, придатній для зберігання, обробки, пересилання та інтерпретації користувачами, прикладними процесами чи технологічними засобами.
-6-
Знання – сукупність фактів, закономірностей, відношень та евристичних правил, що відбиває рівень обізнаності з проблемами деяких предметних галузей.
Практичне значення наукових підходів до визначення терміна "інформація" пов'язано з вирішенням проблеми вимірювання інформації. На початок XXI ст. сформувались основні підходи до вивчення та вимірювання інформації: структурно-синтаксичний, атрибутивний, функціонально-кібернетичний, аксіоматичний, інтуїтивний, логіко-семантичний, прагматичний, образний.
Згідно з якістю та трьома формами адекватності знакової інформації (синтаксична, семантична, прагматична) виконується її вимірювання.
До споживчих показників якості інформації можна віднести репрезентативність, змістовність, повноту, доступність, актуальність, своєчасність, стійкість, точність, достовірність і цінність.
Якщо не брати до уваги зміст інформації і дивитись на інформаційні повідомлення інформації як на послідовність знаків, сигналів, то їх можна представити у бітах, а виміряти байтами, кілобайтами, мегабайтами, гігабайтами терабайтами...
При використанні структурних вимірювань інформації враховується тільки дискретна побудова інформаційного комплексу: кількість інформаційних елементів у ньому, а також комбінацій з них.
При структурному вимірюванні розрізняють геометричну, комбінаторну та адитивну міри інформації.
Визначення кількості інформації геометричним методом полягає у вимірюванні довжини лінії, площі або об'єму геометричної моделі певного інформаційного комплексу у певних дискретних одиницях (квантах).
При комбінаторній оцінці кількості інформації, коли потрібно врахувати різні комбінації інформаційних елементів, використовують формули перестановок, сполучень, розміщень.
Перестановки – це комбінації, які складаються з одних і тих же елементів і відрізняються лише порядком їх розташування.
-7-
Але визначати кількість інформації як кількість комбінаторних комбінацій не завжди доцільно.
Хай є N станів системи S, коли кожний стан системи можна закодувати, наприклад, кодами з основою 2 довжини d, то цю довжину необхідно вибрати так, щоб кількість усіх різних комбінацій була не меншою, ніж N. Найменше число, з яким це можливо, або міра різноманіття множини станів системи, задасться формулою Р. Хартлі (адитивна міра):
H = K*logaN, (1.1)
де К – коефіцієнт пропорційності; а – основа системи міри.
Коли вимір здійснюється за експотенціальною системою, то К=1, H=lnN(ніm), коли у системи з основою 2, то K=1 ln2, H=log2 N(6im), коли у системі з основою 10, то K=1/lg 10, H=lg N(діт).
Формула Хартлі не враховувала розрізнення і різницю N станів системи.
Міра К. Шеннона також дає оцінку інформації
І=-
(1.2)
де п - число станів системи; Рі – ймовірність переходу системи у стан і, причому сума усіх Рі дорівнює 1.
Коли всі стани системи рівноймовірні (Pi =l/n), то I=log2 n - формула Шеннона співпадає з формулою Хартлі.
Невизначеність кожної ситуації можна охарактеризувати величиною, яка називається ентропією. Ентропія у термодинаміці означає ймовірність теплового стану речовини, у математиці – ступінь невизначеності ситуації або задачі, в інформатиці - властивість джерела віддавати інформацію.
Формула Шеннона характеризує ентропію (невизначеність стану) системи і дійсна для замкнутих, а не для складних та відкритих систем.
У термодинаміці формула
S=
Рі
ln Pi (1.3)
відома як ентропія або міра хаосу у системі (де к - коефіцієнт Больцмана).
Якщо порівнювати / (1.2) та S (1.3), то можна зробити висновок, що /-інформаційна ентропія (ентропія через брак інформації про систему або в системі). Коли ентропія дорівнює нулю, тоді маємо максимальну інформацію. Основне співвідношення між ентропією та інформацією
I + S(\og2e)/k = const (1.4)
Основною позитивною рисою формули Шеннона є те, що вона не враховує сематичні, якісні та індивідуальні властивості системи, а також те, що вона враховує різницю та неоднакову ймовірність різних станів системи, має статистичний характер.
Збільшення (зменшення) міри Шеннона свідчить про зменшення (збільшення) ентропії (організованості) системи. До того ж ентропія може бути мірою дезорганізації систем від повного хаосу (S=S max) і повної інформаційної невизначеності (1=1 тіп) до повного порядку (S=S min) та повної інформаційної визначеності (1=1max) у системі.
Інформаційно-термодинамічний підхід пов'язує величину ентропії системи з нестачею інформації про її внутрішню структуру, коли кількість станів визначає, по суті, ступінь неповноти наших відомостей про систему.
Термодинамічна міра (ентропія) може бути застосована до систем, які існують у тепловій рівновазі, але для систем, які далекі від теплової рівноваги, наприклад, живих біосистем, кібернетичних систем, така міра, як ентропія, є менш придатною.
Спочатку у статистичній теорії інформації (теорія зв'язку) ентропія була розрахована для ансамблю (повна група подій або поле сумісних подій з розподілом ймовірностей, які у сумі складають одиницю), але згодом була використана і для об'єднання (сукупності двох і більше взаємозалежних ансамблів дискретних випадкових змінних).
Імовірність добутку (збігу) спільних залежних подій X і Y дорівнює добутку безумовних ймовірностей Р(х) або Р(у) та умовних ймовірностей Р(у/х) або Р(х/у)
-9-
Р(х,у)=Р(х) *Р(у/х) =Р(у) *Р(х/у) (1.5)
З об'єднанням пов'язані поняття безумовної, умовної, спільної (сумісної) та взаємної ентропії (табл. 1.2).
Коли ансамбль X відображає джерело інформації, а ансамбль Y - приймача (споживача) інформації, тоді різні види ентропії мають наступний зміст: Н (х) - безумовна ентропія джерела, або середня кількість інформації на один символ, яку видає джерело; Н (у) - безумовна ентропія приймача (споживача), або середня кількість інформації на символ, яку одержує приймач (споживач);
Таблиця 1.2. Ентропія об'єднання
Найменування |
Означення |
Співвідношення |
Безумовна ентропія |
Н(х)
Н(У) |
Н(х)>Н(х/у) Н(х)=Н(х/у)+Н(ху)
Н(у)>Н(у/х) Н (у)=Н (у/х)+Н (х Y) |
Умовна ентропія |
Н(х/у)
Н (у/х) |
Н(х/у)=Н(х)-Н(ху)
Н(у/х)=Н(у)-Н(ху) |
Сумісна (спільна) ентропія |
Н (х, у)= =Н (у, х) |
Н (х, у)=Н (х)+Н (у/х)= = Н (у)+Н (х/у)= =Н(х)+Н(у)-Н(ху) |
Взаємна ентропія |
Н (х у)= =Н (у х) |
Н(ху) = Н(х)-Н(х/у)= =Н (у) - Н (у/х)= =Н(х,у)-Н(х/у) -Н(у/х) |
Н (у х) - взаємна ентропія системи передачі - прийому в цілому, або середня кількість інформації на пару (переданого й прийнятого) символів;
Н (х/у) - умовна ентропія X відносно Y, або кількість інформації про джерело, коли відомо, що приймається Y;
Н (у/х) - умовна ентропія Y відносно X, або кількість інформації у приймача (споживача), коли відомо, що передається X.
-10-
Коли в системі передачі інформації по каналу зв'язку немає втрат та спотворювань, то умовні ентропії дорівнюють нулю:
Н(у/х) = Н (х/у)=0, а кількість взаємної інформації дорівнює ентропії джерела або приймача:
І=(х,у) =Н (ху)-Н (х) = Н (у). (1.6)
Енергія (ресурс) та інформація (структура) - дві фундаментальні характеристики систем реального світу, які пов'язують їх речові, просторові та часові характеристики. Коли А - множина "енергетичного походження", а В - множина "інформаційного походження", то можна визначити енергоінформаційну міру (систем А↔В) як відношення, зв'язок між цими множинами f:A↔В. Вона повинна відображати механізм взаємозв'язків фізико-інформаційних та речовинно енергетичних структур та процесів у системі.
Кількість інформації за теорією, що базується на алгоритмах перетворення (алгоритмічна теорія інформації), визначається як довжина програми, що дає змогу перетворити об'єкті в об'єкт В, тобто
1 = L[G(A,B)], (1.7)
де L - функція отримання довжини програми (у байтах чи бітах), a G - програма перетворення.
Вимірювання кількості інформації в семантичній теорії інформації, що базується на фігурах математичної логіки, можливе лише для тверджень за формулою
l=logF(S), (1.8)
де F - функція кількості інформації, що залежить від кількості можливих станів у складових (змінних і предикатах) твердження; S - саме твердження.
Семантичні міри кількості інформації загалом не можуть бути безпосередньо використані для вимірювання значеннєвого змісту, оскільки стосуються знеособлення інформації, яка не відбиває змістового ставлення до об'єкта.
Означення інформації у всіх перелічених теоріях (знята невизначеність;
-11-
довжина програми перетворення об'єкта; функція від кількості станів у твердженні) певною мірою суперечить її означенню (інформація - це відомості, сукупність даних, знань).
У концепції образної теорії інформації [50] кількість інформації в образі (Іо), яка сприймає і розпізнає кібернетичну систему, визначається за формулою
Io = q-1L[G(o)], (1.9)
де q - імовірність правильного розпізнання образу; L — функція отримання довжини розгорнутої (розцикленої) програми розпізнання; G - програма розпізнання образу, біти; О - образ.
Інформація (у концепції образної теорії) - це розпізнані образи (сигнали, записані в сенсорну пам'ять скануючих пристроїв кібернетичної системи), які кібернетична система зберігає в пам'яті.
З позиції образної концепції теорії інформації імовірнісна (шеннонівська) теорія є теорією кодування інформації, а образна теорія, не перехрещуючись із ймовірною, усуває недоліки алгоритмічної теорії.
Прагматична міра інформації означає корисність, цінність для управління і зумовлюється особливостями використання даної інформації у певній системі. Цінність інформації може визначати ефективність здійснюваного на її основі управління за формулою.
Iкв(Y) = P(Y/B)-P(Y), (1.10)
де Iкв - цінність інформаційного повідомлення В для системи управління Y;
P(Y) - апріорний очікуваний економічний ефект функціонування - системи управління Y;
P(Y / В) - очікуваний ефект функціонування системи Y за умови, що для управління буде використано інформацію, яка міститься у повідомленні В.
-12-