
- •Біофізика складних систем
- •Передача інформації в сенсорних системах організму
- •13.1. Основні поняття теорії інформації
- •13.2. Трансформація подразнень у рецепторах
- •13.3. Передача та переробка інформації в нервових центрах
- •13.4. Характеристики суб‘єктивних сенсорних відчуттів
- •Керування руховою функцією організму
- •14.1. Скелетні м‘язи як системи саморегуляції
- •14.2. Скелетні м‘язи як ефектори.
- •Сталість внутрішнього середовища організму та його регуляція
- •15.1. Характеристики внутрішнього середовища організму
- •15.2. Регуляція кровообігу
- •15.3. Регуляція газового складу крові
- •15.4. Регуляція концентрації енергетичних речовин у крові
- •15.5. Регуляція температури крові
- •15.6. Регуляція осмотичного тиску крові
- •Контрольні запитання до частини IV
Частина IV
Біофізика складних систем
Розділ 13
Передача інформації в сенсорних системах організму
Живі організми функціонують у зовнішньому середовищі, яке безперервно змінюється, і тому передумовою їх виживання є наявність у них здатності реагувати на ці зміни відповідною перебудовою своєї життєдіяльності, що дозволяє знаходити та захоплювати їстівні речовини, уникати пошкодження, відтворювати нащадків тощо. Початковою ланкою у всіх цих реакціях, які в багатоклітинних організмів завжди здійснюються за участю нервової системи, є перетворення впливу зовнішнього середовища (який зазвичай позначають як подразник або стимул) у певний фізіологічний процес, що несе в собі інформацію про цей вплив.
Подразнення може полягати в дії на організм найрізноманітніших видів зовнішньої енергії (механічної, теплової, хімічної, гравітаційної, електромагнітної). В організмі ж відомості про неї передаються за одним і тим самим механізмом – сигнальною діяльністю нервових клітин. Трансформація зовнішньої енергії в цю діяльність забезпечується особливими структурами, що позначаються як рецептори зовнішніх подразнень.
Рецептори мають властивість не тільки фіксувати сам факт дії подразника, але й відображати певні його характеристики, виконуючи таким чином функцію перекодування цих характеристик у відповідні характеристики нервових сигналів. Такий процес створення й передачі інформації про зовнішні подразники позначається як сенсорна або аферентна діяльність організму, а структури, які її здійснюють – як чутливі (сенсорні, аферентні) його системи. Цей процес є тим біофізичним механізмом, який слід розглянути в першу чергу при вивченні життєдіяльності організму як складної біофізичної системи.
13.1. Основні поняття теорії інформації
За К. Шеноном, інформація – це міра тієї непевності, яка зникає після одержання відомостей про систему.
У теорії інформації існує важлива величина – кількість інформації. Розглянемо простий приклад. Кожен раз, коли ми підкидаємо шестигранний кубик, ми одержуємо відомості про цифри на його гранях. Таким чином зменшується непевність або наше незнання про систему. Для кубика кількість рівновірогідних подій N = 6. Чим більшим є N, тим вища непевність системи до одержання відомостей про неї. При одержанні таких відомостей кількість інформації підсумовується. Для забезпечення умов адитивності слід припустити, що кількість інформації I є логарифмічною функцією від кількості подій чи мікростанів N. Для рівноймовірних подій:
I = lg2 N. (13.1)
При визначенні кількості інформації обрано саме двійковий логарифм при основі 2; при цьому кількість інформації подається у двійковому (бінарному) коді. Джерело інформації проводить вибір між двома можливостями “так” – “ні” або “I “ – “О”. У двійковому коді будь-яку кількість мікростанів N можна представити як:
N =2n та I = lg22n, (13.2)
де n – кількість двійкових комірок. Одиниця кількості інформації (в бітах) в бінарному поданні обирається таким чином. Якщо система має всього два мікростани (N = 2) й необхідно отримати повну інформацію, достатньо однієї відомості (n = 1), і кількість інформації становитиме 1 біт. Для передачі одного двійкового символу необхідна інформація в один біт. Якщо N = 8 (тобто N = 23 ), то кількість інформації I = 3 біта,
Рис.13.1. Канал передачі інформації за Шеноном:
Х – джерело сигналів; Y –приймач інформації; 1 – кодуючий пристрій; 2 – канал передачі інформації; 3 – декодуючий пристрій; 4 – джерело шуму
а якщо N = 2n, то інформаційний вміст системи становить n бітів.
Двійкова система широко використовується в ЕОМ для запису інформації в пам‘ять машини. Мінімальною одиницею інформації, що адресується та оброблюється в машині, є байт – вісім двійкових розрядів, порядкові номери яких розташовуються від нуля до семи (зліва направо). Одна комірка пам‘яті має 1 біт, тобто може вибирати між 0 та 1, тобто n = 1, a N = 2. Якщо маємо дві комірки (N = 2), то у двійковій системі можна одержати більшу кількість комбінацій: 00, 01, 11, 10. Таким чином, одержуємо N = 22 = 4 мікростани та I = 2 біта. Байт має 8 бітів інформації, а отже, кількість мікростанів N = 256.
Кожен з мікростанів системи ми можемо отримати в результаті одного з можливих повідомлень. Імовірність р появи кожного з таких повідомлень, якщо вони є рівноймовірними, запишеться як:
p = 1/N. (13.3)
Тоді кількість інформації дорівнюватиме
I = lg21/p = –lg2p. (13.4)
Якщо події не є рівноймовірними, то, за Шеноном, визначається середня кількість інформації Н (Х) джерела інформації з N мікростанами:
Н (Х) = - р (Хі ) lg2 р (Хі). (13.5)
Цю кількість інформації називають ентропією, оскільки вона формально є еквівалентною термодинамічній ентропії. Максимальним значення Н(Х) буде в тому випадку, коли р (Хі ) = 1/N та
H(X)max = lg2 N. (13.6)
Величину lg2N називають кількістю рішень. Вона показує середню кількість бінарних рішень, необхідних для вибору однієї з N ситуацій.
Загальна теорія інформаційного каналу, розроблена Шенноном, включає джерело (Х) та приймач (Y) інформації, яка надходить у канал 2 через кодуючий блок 3 (рис. 13.1). Приймач сприймає інформацію через декодуючий блок 3. Наявність джерела шумів 4 спотворює сигнали в каналі передачі інформації. Якщо позначити ентропію джерела інформації як Н(Х), а приймача як Н(Y), то зв‘язок приймача з джерелом інформації характеризується кількістю трансформації:
Т = Н(Х) + Н(Y) – H(X,Y), (13.7)
де H(X,Y) – ентропія зв‘язку.
Розраховане максимальне значення Т позначається як потужність каналу, тобто максимальна величина можливої інформації, що може пройти через канал:
C
=
(T/
)max, (13.8)
де – середній час передачі на один інформаційний символ. Максимальний потік інформації називають пропускною здатністю каналу.
Типові значення потужності каналів при передачі технічної інформації є такими:
телевізійний канал: С = 7 107 біт с-1;
телефонний канал: С = 5 104 біт с-1;
телеграфний канал: С = 5 101 біт с-1.
Потужність технічних каналів більш-менш наближається до інформаційної потужності наших органів чуття, які ми будемо розглядати далі:
зір: С = 3 106 біт с-1;
слух: С = 4 104 біт с-1.
Порівнюючи із цими значеннями, потужність засвоєння інформації при розумовій діяльності людини є значно нижчою:
читання про себе: С = 4,5 101 біт с-1;
читання вголос: С = 3 101 біт с-1;
друкування: С = 1,6 101 біт с-1;
підрахунки: С = 3 біт с-1.