Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
MedInform_250607-ІП.doc
Скачиваний:
46
Добавлен:
29.08.2019
Размер:
5.32 Mб
Скачать

Носії повідомлень

Зростаючі потоки повідомлень, необхідність зберігання їх у великих обсягах сприяли розробці і застосуванню носіїв повідомлень, що забезпечують можливість довготривалого їх зберігання в досить компактній формі. Носій – фізичне середовище, в якому зберігаються повідомлення. Прикладом носія повідомлення є медична картка, рентгенівська плівка, електромагнітна хвиля, тощо.

Носії повідомлень поділяють на довгоіснуючі та недовгоіснуючі. Подання повідомлень на довгоіснуючих носіях називають письмом. Прикладом може бути послідовність друкованих чи рукописних знаків, що сприймаються зором (письмо, що сприймається на дотик сліпими) – записи в медичній картці пацієнта, кардіограма, рентген, тощо. Прикладами повідомлень на недовгоіснуючих носіях є повідомлення, що передаються телефоном, жестами.

Будь-який живий організм як єдине ціле спілкується із зовнішнім світом, використовуючи фізичні або хімічні носії (голос, жест, запах). Важливим прикладом передачі інформації є передача генетичної інформації, що пов’язана з молекулами ДНК (дивись рисунок 2). Ці молекули складаються з ланцюга вуглеводних та фосфатних груп однакового складу і кожна вуглеводна група з’єднана з однією азотистою основою: аденін (А), гуанін (Г), цитозін (Ц) і тімін (Т).

Рис. 1. Схема передачі генетичної інформації

Всі молекули ДНК відрізняються послідовним чергуванням відповідних основ (А, Г, Ц, Т), тобто первинне повідомлення знаходиться у хромосомах ядра клітини і записано у чотирьох літерному алфавіті молекул ДНК. Кількість інформації, яка зберігається у хромосомах log 41000000 =2 000 000 біт.

Цієї інформації більше, ніж достатньо для і передачі щодо наслідування даних ознак.

Передавання інформації до дочірніх клітин відіграє фундаментальну роль в усіх життєвих процесах, роль «повідомлення» 1, що передається грає набір хромосом (набір молекул ДНК) вихідної клітини, а «повідомлення» 1 , на виході – це набори хромосом двох повних клітин. Одержане «повідомлення» 1 анулює питання про перешкоди, але питання про перешкоди (наприклад, радіоопромінення клітин) можуть бути причиною мутації.

Перейдемо до передавання інформації від хромосом до цитоплазми клітини. Основна роль належить білковим речовинам – ферментам, завдяки яким відбуваються в організмі біохімічні реакції. Синтез білків відбувається в рибосомах. Білкові молекули мають приблизно 20 амінокислот. Таким чином, на «виході» лінії зв’язку є рибосоми і «повідомлення» 1 на виході – це білок. Це повідомлення записано на 20-ти літерному алфавіті амінокислот. Головну роль у процесі передачі інформації від ДНК хромосом до білкових молекул мають молекули РНК. На молекулах ДНК хромосом, як на «шаблоні» синтезуються молекули РНК (інформаційні РНК, які проникають у рибосоми). Таким чином схема передачі генетичної інформації має вигляд:

Роль «повідомлення» на вході 1 і «повідомлення» на виході 1 грають ДНК і білок, а роль «сигналу» на вході  і «сигналу» на виході  – молекули і РНК.

Визначення кількості інформації

Використання термінів «більше інформації» або «менше інформації» має на увазі якусь можливість її виміру (або хоча б кількісного співставлення). При суб’єктивному сприйнятті вимір інформації можливий лише у разі встановлення деякої порядкової шкали для оцінки «більше»-«менше», та й то суб’єктивної

Існують декілька підходів до визначення міри кількості інформації. Розглянемо три основних: структурний (синтаксичний), статистичний і семантичний (змістовий).

За структурним підходом вимірювання інформації проводиться шляхом підрахунку числа інформаційних елементів або комбінацій з цих елементів. Якщо маємо об’єкт, який може знаходитися в одному з N рівноймовірних станів, то за визначенням Шеннона, кількість інформації І в повідомленні про те, що об’єкт знаходиться у будь-якому одному стані, визначається формулою:

I = log2N.

Наприклад, при реалізації однієї з двох рівноймовірних незалежних подій (результат підкидання монети) ймовірність реалізації однієї з них дорівнює 1/2. Число можливих станів N = 2, тоді I = log22 = 1. Отримана таким чином одиниця інформації називається бітом. Тобто біт – кількість інформації, яка міститься у повідомленні про найпростішу двопозиційну ситуацію типу: «сигнал є», «сигналу немає» , «так» або «ні», 1 або 0.

Інтуїтивно зрозуміло, що чим більш рідкою й незвичайною є подія (тобто чим вона менш ймовірна), тим більше вона несе в собі інформації, тому що інакше вона є легко передбачуваною, а значить має малу інформаційну цінність. Виникає запитання, у якому випадку інформації більше – при киданні монети або при киданні кубику? Очевидно, що при киданні кубику, оскільки імовірність випадання певної грані – 1/6, а число можливих станів N = 6, тобто

I = log26 = 2,6 біт.

Важливою перевагою застосування логарифмічної міри є властивість адитивності. Ця властивість полягає у тому, що коли повідомлення дістаються від незалежних об’єктів, які мають відповідно N1 i N2 можливих станів, то загальна кількість інформації про стан цих об’єктів визначається формулою:

I = log2N1 + log2N2.

Структурний підхід до визначення кількості інформації є ідеальним для застосування в обчислювальній техніці, яка оперує з інформацією, закодованою тільки двома символами: 0 і 1.

У статистичному підході, запропонованому К.Шенноном (1948 р.), ступінь невизначеності (а значить і кількість інформації) можна характеризувати за допомогою ймовірності. Згідно з ним, кількість інформації, яка міститься у повідомленні про те, що відбулася одна будь-яка подія Ai з кількох можливих, тим більша, чим менша ймовірність появи цієї події [P(Ai)].

Повідомлення про подію, яка має тільки два однаково можливих результати, містить 1біт інформації: якщо ймовірність кожного результату P(Ai) = 0,5 , то . Це повністю відповідає означенню кількості інформації за структурним підходом. Якщо ж заздалегідь відомо, що подія відбудеться, P(Ai) = 1, то кількість інформації про таку подію I = log21 = 0. Такий стан речей, звичайно, не означає, що коли в повідомленні немає нової для споживача інформації, то це не є інформація. Інформаційний характер повідомлення зберігається, бо його мета була повідомити інформацію. Або, при футбольному матчі між сильною та слабкою командами ймовірність перемоги сильної команди велика, ймовірність нічийного результату набагато менша; ймовірність поразки – зовсім мала. Звідси й випливає, що кількість інформації – це міра зменшення невизначеності у повідомленні.

На практиці важливою є чисельна оцінка ступеня невизначеності різноманітних результатів дослідів. Нехай відбувається множина незалежних подій: подія A1 – n1 раз, подія A2 – n2 раз, …, подія Ak – nk раз. Тоді загальна кількість інформації дорівнює: Ізаг = I1n1 + I2n2 + … + Iknk , a оскільки , то

Оцінимо середню кількість інформації, яку ми отримуємо, коли відбувається деяка одна подія із усіх: де тоді

А оскільки то

Тобто, середня кількість інформації дорівнює зменшенню ентропії в результаті реалізації події.

Повідомлення усуває невизначеність, доставляючи кількість інформації, що дорівнює зменшенню ентропії. Отже, ентропія є мірою відсутньої інформації про стан системи. За знаком вона протилежна кількості інформації. Тому кількість інформації можна вимірювати зменшенням ентропії. Зауважимо, що ентропія неможливої події дорівнює нулю. Проте, ані структурний, ані статистичний підходи не враховують зміст, цінність і корисність інформації. Ці характеристики оцінюються семантичною мірою інформації. Семантична концепція інформації, виникла як спроба виміру змісту повідомлень у формі суджень, що є носіями знань, що можуть бути зрозумілі людиною

Можна оцінювати цінність інформації Іц шляхом визначення зміни ймовірності досягнення мети при отриманні інформації: де Р0 – ймовірність досягнення мети до отримання інформації, а Р1 – ймовірність досягнення мети після отримання інформації. При цьому можливі три випадки. Здобута інформація може не змінювати ймовірності досягнення мети (Р0 = Р1 ). Тоді Іц = 0, таку інформацію називають порожньою. Наприклад, інформація про прогноз погоди під час постановки діагнозу. Можливий випадок, коли Іц > 0 (одержання лікарем результатів аналізів, що допомагають з’ясувати стан хворого), таку інформацію називають корисною. А можливий випадок, коли Іц < 0. Таку інформацію можна назвати дезінформацією (невірно зроблені аналізи, несправна медична апаратура тощо). Семантичний підхід до визначення кількості інформації може бути застосований для оцінювання інформаційної цінності симптомів Iц при постановці діагнозів різних захворювань. Суть методу полягає в наступному:

(10)

де – умовна ймовірність симптому Si при захворювані Bj, яка показує, як часто трапляється цей симптом при даному захворюванні; P(Si) –імовірність симптому Si у розглядуваному класі захворювань, що характеризує, як часто трапляється цей симптом серед усіх захворювань даного класу.

Застосування формули (10) передбачає статистичне дослідження великої кількості історії хвороб з перевіреними діагнозами. Наприклад, таким дослідженням встановлено, що симптом порушення серцевого ритму буває приблизно 92 рази серед 100 випадків інфаркту міокарда. Отже, умовна ймовірність цього симптому дорівнює 0,92. У класі схожих захворювань, об’єднаних назвою «гострий живіт» (інфаркт міокарду, перитоніт, крупозне запалення легенів, тромбоемболія), цей симптом трапляється приблизно у 25% випадків. Тоді інформаційна цінність симптому порушення серцевого ритму при інфаркті міокарду серед даного класу захворювань визначиться так :

= 1,7 біт .

З аналізу отриманого результату випливає, що такий симптом є цінним для діагностики інфаркту міокарду.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]