
- •Предмет биофизики, ее значение для медицины
- •Часть первая основы общей биофизики
- •Процессов
- •1 От греч. «kybernetike»— искусство управления.
- •Теория регулирования
- •Глава 2 термодинамика биологических систем предмет и терминология
- •Глава 3 квантовая биофизика
- •Поглощение света
- •Значение
- •Глава 4 кинетика биохимических процессов
- •7 Медицинская биофизика 97
- •8 Медицинская биофизика
- •Часть вторая биофизика клетки
- •Глава 5 ультраструктура клетки и биологических мембран
- •Методы исследования
- •Общая структура клетки
- •Мембран
- •9 Медицинская биофизика
- •Адгезия клеток
- •Искусственные мембраны
- •Глава 6 проницаемость живых клеток
- •Методы изучения проницаемости
- •Диффузия
- •10) Медицинская биофизика 145
- •Фильтрация
- •В клетку
- •11 Медицинская биофизика
- •Глава 7 биоэлектрические потенциалы
- •Потенциал покоя
- •Проведение возбуждения
- •13 Медицинская биофизика 193
- •Передача возбуждения в синапсах
- •Глава 8 электрокинетические явления
- •Электроосмос
- •Глава 10
- •Биологическое действие ионизирующих излучений
- •16» Медицинская биофизика
- •Действие ультразвука на клетки
- •Часть третья элементы частной биофизики
- •Глава 11 биофизика мышечного сокращения
- •Глава 12 биофизика кровообращения
- •Анализ работы сердца
- •Глава 13 элементы биофизики органов чувств общие закономерности
- •Восприятие вкуса
- •Кодирование информации в органе слуха
- •Глава 14 биофизика внешнего дыхания
- •Сопротивление дыханию
- •21 Медицинская биофизика
Часть первая основы общей биофизики
Г л а в а I
ЭЛЕМЕНТЫ ТЕОРИИ ИНФОРМАЦИИ И РЕГУЛИРОВАНИЯ БИОЛОГИЧЕСКИХ
Процессов
Кибернетика! — это наука об общих законах связи и управления в разнообразных системах: технических устройствах, живых организмах, человеческом обществе. Возникновение кибернетики было подготовлено рядом технических и естественнонаучных достижений: во-первых, разработкой теории автоматического регулирования и развитием радиоэлектроники, что позволило создать программно-управляемые вычислительные машины; во-вторых, применением теории вероятностей к исследованию передачи и преобразования информации, т. е. созданием теории информации.
Возникновение теории информации обычно связывается с фундаментальной работой К. Шеннона «Математическая теория связи», опубликованной в 1948 г. Важную роль в создании кибернетики сыграли работы и области физиологии, описывающие регуляцию различных физиологических функций в организме и гомеостаз — постоянство параметров внутренней среды организма. Особое значение приобрели работы П. К. Анохина, разработавшего теорию функциональной системы с обратной афферентацией о результатах действия (1935), которая предвосхитила развитие системного подхода в оценке поведения организмов. Только через
1 От греч. «kybernetike»— искусство управления.
9
12 лет после опубликования этой теории все ее основные физиологические черты были развиты кибернетикой.
Таким образом, кибернетика возникла в результате совместных усилий математиков, физиков, инженеров, биологов. Впервые обобщенно принципы кибернетики были изложены американским математиком Н. Винером, которого называют «отцом кибернетики». Официально временем рождения кибернетики считают год появления его фундаментального труда «Кибернетика», опубликованного в 1948 г. и быстро получившего признание.
В отличие от других естественных наук, которые изучают системы с точки зрения изменения вещества в системе, а также с точки зрения энергетики процессов, кибернетика занимается рассмотрением процессов управления и регулирования в системах. Управление и регулирование осуществляются через постоянный обмен и циркуляцию информации между элементами системы. Химия, например, занимается рассмотрением процессов изменения вещества, превращения одних веществ в другие, происходящего при химических реакциях. Основными понятиями химии являются такие понятия, как атом, молекула, химическая реакция. Термодинамика рассматривает вопросы, связанные исключительно с энергетической стороной процессов. Поэтому основным понятием термодинамики является энергия.
Кибернетику не интересует ни материальная природа системы, ни энергетическая сторона процессов, протекающих в системе. Ее интересуют те команды и информация, которые обусловили протекание именно данного процесса. Эта мысль хорошо выражена в определении кибернетики, данном А. Н. Колмогоровым: «Кибернетика занимается изучением систем любой природы, способных воспринимать, хранить и перерабатывать информацию и использовать ее для управления и регулирования». Основным количественным понятием кибернетики является информация. Таким образом, сущность кибернетики состоит в исследовании информационных процессов управления в машинах, организмах, обществе. Как установлено, эти процессы основаны на одних и тех же принципах, что и позволяет кибернетике рассматривать все эти системы.
10
Фундаментом кибернетики являются разные разделы математики: теория вероятностей, теория множеств, теория игр, математическая логика, теория алгоритмов и пр. Применение аппарата кибернетики облегчает систематизацию, понимание и моделирование общих схем и механизмов регулирования в организмах. Основная ценность применения кибернетических методов для анализа процессов, протекающих в биологических системах, заключается в том, что с их помощью можно количественно подходить к оценке механизма регулирования.
Кибернетика имеет очень большое значение для развития медицины. Одним из основных направлений развития современной медицины является кибернетикоматематическое направление. Если раньше для характеристики жизни пользовались представлением об обмене веществ и энергии, то в настоящее время это представление расширено. Для характеристики жизни необходимо использовать представление об обмене информацией, об информационных процессах. Живые системы обладают способностью к сохранению своих физико-химических свойств при наличии внешних воздействий. Это сохранение возможно в результате наличия соответствующих реакций, которые управляются специализированными управляющими системами, имеющими некоторую информацию — модель. Согласно А. А. Ляпунову, «жизнь можно охарактеризовать как высокоустойчивое состояние вещества, использующее для выработки сохраняющих реакций информацию, кодируемую состоянием отдельных молекул». При этом характерна передача информации от одних устойчивых систем к другим в процессе эволюции. В приведенном определении подчеркивается функциональная сторона явлений жизни, что позволяет рассматривать как жизнь не только определенные явления на Земле, но и искать новые формы жизни вне Земли.
В настоящее время живой организм представляют как сложную саморегулирующуюся систему, обменивающуюся веществом, энергией и информацией с окружающей средой. Информационные процессы (управление, регулирование) являются определяющими в организме. Это объясняется тем, что информация в сложной системе является первичной моделью, на основе которой происходят все процессы.
11
Любой патологический процесс в организме с точки зрения кибернетики считается рассогласованием или нарушением регулирующих систем организма, а лечение представляет собой исправление или компенсацию этих нарушений. В настоящее время физиологии и медицине известны лишь фрагменты сложнейшей сети регуляций в организме. Биологическая и медицинская кибернетика также находятся лишь в стадии составления общих схем регулирования в организме. Делаются только первые шаги в направлении количественного описания этих схем. Так как системы регулирования в организме во всей их сложности неизвестны, то и не всегда возможно полностью исправить нарушения при их возникновении (при патологии). Помочь преодолеть этот недостаток может кибернетика, позволяющая качественно и количественно описывать процессы управления и регулирования.
ТЕОРИЯ СВЯЗИ И ТЕОРИЯ ИНФОРМАЦИИ
Итак, кибернетика — наука, изучающая процессы связи, управления и регулирования в различных системах. Что же такое система?
Система — организованный комплекс элементов,
связанных друг с другом и выполняющих определенные функции, в соответствии с программой всей системы.
Программа, по Н. М. Амосову, это последовательность изменений системы в пространстве и во времени, заложенная в структуре самой системы. Если рассматриваются подсистемы, то программы для них могут поступать извне, а не быть заложенными в собственной структуре.
Под связью понимается взаимодействие элементов друг с другом, в процессе которого они обмениваются веществом, энергией и информацией Сущность кибернетики состоит в исследовании процессов управления. А содержанием процессов управления является прием, хранение, переработка и передача информации. Поэтому в дальнейшем под связью мы будем понимать лишь передачу информации от одного элемента системы к другому.
Теоретическую основу систем связи составляют общая теория связи и количественная теория информа-
12
ции. Для их понимания необходимо знание теории вероятностей.
Предмет теории вероятностей составляют массовые случайные события, которые обладают устойчивой частотой появления. Под случайным событием в теории вероятностей подразумевается такое событие, которое может произойти или не произойти в данных условиях. Согласно материалистической диалектике, случайность является формой проявления необходимости. Теория вероятностей позволяет точно описывать случайные явления, и в этом состоит ее огромная ценность.
Допустим, мы имеем нервно-мышечный препарат и производим раздражение нерва током пороговой силы. Пусть мы произвели 100 опытов по раздражению нерва. При этом оказалось, что в 95 случаях мышца ответила сокращением на раздражение, а в 5 случаях — не ответила. Отношение числа событий, в которых наступило сокращение, к общему числу опытов будет называться частотой появления сокращения мышцы. В данном случае это 95/100 = 0,95. Если в общем случае обозначим общее число испытаний N, а число испытаний, в которых наступило данное событие (назовем его Л), — п и частоту появления события А обозначим Ф(A), то
(1)
Допустим, мы провели еще несколько серий испытаний, каждая из которых содержит по 100 опытов, и получили следующие частоты появления сокращения мышцы: 97, 93, 94, 96. Если мы теперь сложим частоты всех пяти серий и разделим полученную сумму на количество серий, то получим вероятность сокращения мышцы:
Таким образом, вероятность — это среднее значение частоты появления события при массовых испытаниях.
Если в сериях одинаковое количество опытов N, то можно найти среднее количество опытов в серии п, в которых наступает событие А. Тогда отношение среднего количества данных событий А к общему количест-
13
в
у
событий в серии и будет вероятностью
Р(А)
появления
события А:
(2)
Вероятность вычисляется тем точнее, чем более массовым является испытание.
Из уравнения (2) следует, что вероятность может принимать значения от 1 до 0: 1≥Р(А)≥0. События, вероятность которых равна нулю, называются невозможными, а вероятность которых равна единице, — достоверными1 Вероятность всегда показывает долю данных событии в общем количестве событий и поэтому является объективной мерой возможности данного события. Например, если известно, что Р(А) = 0,3 , а Р(В)=0,6 , то это говорит о том, что событие А наступает в среднем в 3 случаях из 10 и в 2 раза реже, чем событие В.
С
ложение
вероятностей. Говоря о событиях, мы
различаем события совместимые и
несовместимые. Несколько событий
называются несовместимыми
в
данном опыте, если никакие два из
них не могут появиться вместе, т. е. если
события взаимно исключаются. В
рассмотренном примере имелись как
раз несовместимые события: или есть
сокращение мышцы, или нет его. Если
же при осуществлении одного события
возможны и другие события, то они
называются совместимыми.
Пусть при проведении некоторой массовой операции было установлено, что в каждой серии из N единичных операций наблюдается
в среднем:
причем в каждой операции наблюдается только одно из этих событий. Тогда вероятности событий равны соответственно:
и т. д. Какова вероятность того, что в некоторой единичной операции может наступить какое-либо одно из этих событий, безразлично какое?
1 В (вариационной статистике событие считается достоверным, если его вероятность больше, а вероятность противоположного события '(ошибки) меньше определенных величин. Ори обработке цифрового материала в биологии и медицине результат обычаю считается достоверным, если вероятность ошибки меньше 0,05.
14
Интересующее нас событие можно назвать А1 либо А2, либо ... и записать А1+А2+А3+... Это событие в серии из N операций наступает в среднем n1+п2+п3+... раз. Искомая вероятность, что наступит одно из этих событий, равна:
Вероятность наступления в некоторой операции какого-либо одного (безразлично какого именно) из событий А1,А2,А3 ... равна сумме вероятностей этих событий, если они несовместимы между собой.
Пример. В некоторой популяции животных имеются самцы, самки и детеныши. Вероятность того, что первое выбранное животное будет самцом Р1 = 0,2, самкой— Р2=0,7, детенышем — Р3 = 0,1. Найти вероятность того, что первое выбранное животное будет или самцом, или самкой.
Данные события являются несовместимыми: животное не может быть сразу и самцом и самкой. Интересующую нас вероятность находим из уравнения (3):
Правило сложения вероятностей справедливо лишь для несовместимых событий, в противном случае оно становится невероятным и приводит к грубым ошибкам.
Вероятности противоположных событий. Пусть в серии из N событий событие Л наступает в среднем п раз. Тогда среднее количество ненаступления событий Л равно N—п. Данное событие, т. е. ненаступление события Л, мы будем называть противоположным событием и обозначать Л. Таким образом, противоположными являются два таких события, что в одном опыте наступает только какое-либо одно из этих событий. Определим, чему равна сумма вероятностей противоположных событий:
Сумма вероятностей противоположных событий равна
единице. В нашем примере с нервно-мышечным препаратом вероятность сокращения мышцы составляла 0,95;
15
следовательно, вероятность отсутствия сокращения равна 1—0,95=0,05.
Сумма вероятностей всех событий серии. Пусть в серии из N событий всего т различных событий: А1, А2, А3...Аm. В каждом единичном опыте должно наступать любое только из этих событий. Определим, чему равна сумма вероятностей всех событий серии.
Данное положение называется теоремой о полной системе событий: сумма вероятностей всех событий серии равна единице.
На этой теореме основывается априорный (до опытный) расчет вероятностей. Если, например, известно, что одно событие имеет вероятность 0,3, а несовместимое с ним событие — 0,4, то в данной системе событий имеются еще какие-то события и их вероятность равна 1—0,3—0,4 = 0,3. Наш пример с популяцией животных содержит полную систему событий, где сумма вероятностей всех событий равна единице.
Вероятность наступления совместимых событий. Если имеется несколько совместимых событий и они являются независимыми (когда наступление одного события не зависит от наступления других), то вероятность совместного наступления Р(А1*А2*А3*...Ап) любого числа взаимно независимых событий равна произведению вероятностей этих событий:
В заключение приведем пример, в котором используем большинство установленных правил. Известно, что для группы населения частота встречаемости или вероятность обнаружения зачатков сколиоза у детей школьного возраста Р(с)=0,7, а вероятность начинающейся порчи зубов (кариеса) Р(к)=0,6. Определить следую- 16
щие вероятности: Р(ск)—вероятность наличия сразу обоих расстройств, Р(с')—вероятность наличия только сколиоза, Р(к')—вероятность наличия только кариеса,
Рск)—вероятность отсутствия обоих расстройств.
Наличие сколиоза и наличие кариеса являются независимыми событиями, поэтому вероятность их одновременного наличия у одного ребенка будет равна произведению вероятностей этих событий:
Р (ск) = Р (с) * Р (к) = 0,7*0,6 = 0,42.
Если из вероятности Р(с) наличия сколиоза вычесть вероятность наличия сразу обоих расстройств Р(ск), то и соответствии с правилом сложения вероятностей (3) получим вероятность наличия только сколиоза:
Р (с') = Р(с) — Р(ск) =0,7 — 0,42 = 0,28.
Таким же образом:
Р(к') =Р(к) — Р(ск) =0,6 —0,42=0,18.
Если воспользуемся правилом о сумме вероятностей противоположных событий, то получим вероятность отсутствия сколиоза:
Р(с) = 1—Р(с) = 1 — 0,7=0,3.
Таким же образом:
Р(к) = 1 — Р(к) = 1 —0,6 = 0,4.
Вероятность отсутствия обоих расстройств будет равна произведению вероятностей отсутствия сколиоза и отсутствия кариеса:
Р (ск) = Р (с) Р (к) = 0,3*0,4 = 0,12.
Мы вычислили все интересующие нас вероятности и получили полную систему событий. Сумма вероятностей всех возможных событий равна единице:
Р (ск) + Р (с') + Р (к') + Р (ск) = 0,42 + 0,28 + 0,18 + 0,12 = 1.
На этом мы заканчиваем рассмотрение вопросов теории вероятностей. Этим вопросам было уделено сравнительно большое внимание в связи с тем, что в будущем вероятностные методы получат широкое распространение в медицине.
Система связи. В любой кибернетической системе имеются управляющая часть и объект управления, со-
2 Медицинская биофизика 17
единенные каналами связи. Связь состоит в восприятии, хранении и передаче информации. Устройство, реализующее связь, называется системой связи. Система связи, по Шеннону, состоит из пяти частей (схема 1).
Источник сообщений подает сообщения, которые в передатчике превращаются в сигналы. Сигналы пере-
Схема 1. Схема обобщенной системы связи ((по Шеннону, 1948).
даются по каналу связи к приемнику, который снова превращает их в сообщения и направляет получателю.
В качестве примера может быть приведена такая система: книга — глаза — нервы — подкорковые зрительные центры — кора больших полушарий.
Под сообщением подразумевается все то, что подлежит передаче в системе связи, поступает на вход пере датчика или создается на выходе приемника. Сообщения бывают двух видов: непрерывные и дискретные Непрерывные сообщения имеют характер непрерывно изменяющейся величины, например изменяющейся величины кровяного давления, температуры, напряжения мышц, музыкальной мелодии. Дискретные сообщения состоят из отдельных, отличающихся друг от друга ступеней или градаций. Это, например, химические частицы, действующие на хеморецепторы, азотистые основания молекулы ДНК, точки и тире в азбуке Морзе.
В технике существуют специальные методы преобразования непрерывных сообщений в дискретные.
Для того чтобы сообщение было передано данной системой связи, оно должно быть преобразовано на входе этой системы в физическую форму, пригодную для передачи по ее внутренним каналам. Так, сообщение, имеющееся в читаемой книге, преобразовывается зрительными рецепторами в последовательность нервных импульсов, пригодных для анализа нервной систе-
18
мой. Эта возникающая в системе связи в результате преобразования новая физическая форма сообщения называется сигналом. Сигнал является материальным носителем сообщения.
Канал связи - это та среда, в которой осуществляется передача сигналов. В нервной системе сигнала ми являются нервные импульсы, а каналом связи—нервное волокно. При гуморальном воздействии сигналом является химическое вещество (гормон, медиатор и пр.), а каналом связи — кровь и тканевая жидкость.
Обычно сигналы обладают сравнительно небольшой энергией. Для приемника сообщений неважно, какой энергией обладают сигналы. Для него важен сам факт появления сигнала, т. е. та информация, которую переносят данные сигналы. Каким же образом сигналы, переносящие информацию, осуществляют управление процессами, если они обладают небольшой энергией? Дело в том, что информация является моделью того или иного процесса и сигналы, переносящие данную информацию, только модулируют данный высокоэнергетический процесс. По мнению У. Эшби, сигналы регулируют поток энергии в управляемой системе, хотя сам управляемый процесс развивается за счет собственной энергии. Так, мышечное сокращение вызывается и управляется нервными импульсами, поступающими по нервному волокну, а сам процесс мышечного сокращения осуществляется за счет энергии гидролиза АТФ. В данном случае сигналы — нервные импульсы — регулируют через ряд стадий (возбуждение цитоплазматических мембран, освобождение ионов кальция) расщепление АТФ актомиозином и, следовательно, мышечное сокращение. Это положение можно проиллюстрировать и на примере работы анализаторов. Внешние раздражители (свет, звук и др.), которые играют роль сигналов, модулируют нервные процессы в анализаторах. Последние развиваются за счет собственной энергии концентрационных градиентов.
Преобразование сообщения в сигналы, а также преобразование одних сигналов в другие, наиболее приемлемые для передачи по данному каналу, называется, кодированием. Кодирование происходит в передатчике сообщений. В приемнике сигналов происходит обратный процессе — декодирование, т. е. превращение сигналов снова в сообщения, которые воспринимает получатель.
2* 19
Кодирование осуществляется с помощью элементов ко да: символов и позиций. Символы являются безразмерными величинами, которые качественно обозначают что-либо. Примерами символов могут служить буквы алфавита, математические знаки, нервные импульсы, молекулы пахучих веществ, азотистые основания в молекуле ДНК и т. п.
Позиция является вторым элементарным структурным звеном кодирования Позиции определяют пространственное и временное размещение символов при кодировании. При кодировании и декодировании сообщении и сигналов каждой позиции по определенным правилам ставится один из символов применяемого кода в соответствии с размещением символов по позициям исходного сообщения пли сигнала. Например, буквенный текст при кодировании азбукой Морзе заменяется определенной последовательностью точек и тире. Каждая система кодирования имеет свои правила. Например, принцип кодирования интенсивности раздражителя в большинстве анализаторов заключается в том, что при увеличении интенсивности раздражителя происходит завышение частоты нервных импульсов в афферентных волокнах по логарифмическому закону.
В результате кодирования между исходным сообщением и возникающими при кодировании сигналами устанавливается однозначное соответствие. Это свойство сигналов быть однозначными с сообщениями, быть подобными сообщению, называется изоморфностью. Изоморфные сообщения и сигналы всегда содержат одну и ту же информацию, хотя она выражена разными средствами. Например, буквенный текст и тот же текст, записанный азбукой Морзе, являются (изоморфными сообщениями. На основе изоморфности возможно точное (адекватное) отражение сообщения в сигналах.
Вычисление информации. Живая природа создала множество различных типов систем связи. Одни из этих систем более совершенны, другие — менее. Более эффективной будет такая система связи, которая' за единицу времени способна передать большее количество сообщений. Как же оценивать сообщения? Для оценки сообщений введено специальное понятие — информация, которая является количественной мерой сообщения.
20
Сообщения и сигналы, которыми оперирует каждая система связи, относятся к категории случайных явлений. В любой момент времен» неизвестно, какое именно сообщение поступит на вход системы связи; сообщения, известные получателю, в передаче не нуждаются. События, о которых сообщается, нельзя предвидеть заранее, так как нет уверенности, что они произойдут, мим ожидаемым событием присуща неопределенность, которая затем устраняется по мере поступления информации. Согласно Шеннону, информация — это мера количества неопределенности, которая устраняется после получения сообщения. Мерой неопределенности событий является энтропия, подобно тому как она является мерой неупорядоченности, хаотичности системы в термодинамике. Тогда информация, содержащаяся в сообщении, будет численно равна энтропии, исчезаю щей после получения сообщения.
Допустим, ожидается наступление какого-либо одного из N равновероятных событий. Относительно наступления этого события имеется неопределенность: может произойти с одинаковой вероятностью любое из этих событий. Количество неопределенности — энтропия Н — в данном случае равна двоичному логарифму от числа ожидаемых событий:
(7)
Если теперь получено сообщение о том, что произошло какое-то из этих событий, то неопределенность полностью устраняется и полученное сообщение будет содержать информацию, численно равную устраненной энтропии.
Информация, вычисленная по уравнению (7), выражается в битах – двоичных единицах. Определим, что такое один бит. Для этого правую часть уравнения (7) приравняем к единице:
отсюда N=2. Таким образом, информация 1 бит содержится в сообщении о том, что наступило одно из двух равновероятных событий. Это количество информации, необходимое для выбора одной из двух равновероятных возможностей, дает ответ по типу «да», «нет». Например, было известно, что должен родиться или мальчик, или девочка. Тогда сообщение «родился мальчик» содержит 1 бит информации.
21
Пример. Сколько информации содержится в сообщении о том, что данный нуклеотид в молекуле ДНК содержит цитозин, если известно, что азотистых оснований в молекуле ДНК содержится примерно поровну? Так как всего имеется 4 азотистых основания и количество их одинаково, то данный нуклеотид может с одинаковой вероятностью содержать любое из этих 4 оснований. В данном случае ожидается наступление одного из 4 равновероятных событий. Информация, содержащаяся в приведенном выше сообщении, будет равна 2 бит:
Н = log24 = 2 бит.
Кроме единицы измерения информации бит, иногда применяется единица хартли. Эта единица получается, если при вычислении информации пользоваться не двоичным логарифмом, а десятичным:
1 хартли — количество информации, необходимое для выбора одной из десяти равновероятных возможностей. Соотношение для бит и хартли будет следующее:
1 хартли = log210 = 3,3 бит, 1 бит = lg2 = 0,301 хартли.
Выше было рассмотрено вычисление энтропии и ин-формации для самого простого случая, когда ожидаемые события являются равновероятными. В том случае, если "ожидаемые" события неравно вероятны, вычисление энтропии и информации производится с помощью уравнения Шеннона:
Н = -Σ Pi • log2Pi (8)
i=1
где Σ — знак суммирования подзнакового выражения от 1 до п; Pi — вероятности всех ожидаемых событий от 1 до п; знак минус стоит потому, что логарифмы чисел от 0 до 1 отрицательны.
Пример. В некоторой популяции 20% всех животных являются самцами, 70%—самками, 10%—детенышами. Сколько информации содержится в сообщении, что данное животное является самцом? Определим вероятности всех ожидаемых событий. По определению вероятности (2) находим: вероятность того, что
22
случайно выбранное животное является самцом Р1= = 0,2, самкой — Р2 = 0,7, детенышем — Р3 = 0,1. Подставляя полученные вероятности в уравнение (8), находим энтропию, которая была до получения сообщения:
Н = — [0,2 • log2 0,2 + 0,7 • log2 0,7 + 0, 1 • log2 0,1] = = — [—0,093—0,259—0,033] ==0,384 бит.
После получения сообщения о том, что животное — самец, энтропия стала равной нулю: Р1=1, Р2=0, Рз=0
и Н = — 1 *log21 = 0 бит, поэтому приведенное сообщение содержит 0,384 бит информации.
Если после получения сообщения неопределенность полностью не устраняется, то для определения количества информации необходимо взять разность между энтропией до получения сообщения и энтропией после получения сообщения.
Некоторыми авторами для определения информации
в сообщениях предложено уравнение:
(9)
где Р0 — вероятность наступления события до получения сообщения; Р — вероятность наступления события после получения сообщения.
Уравнение (9) применимо для вычисления информации независимо от того, полностью или не полностью устраняется неопределенность после получения сообщения.
Пример. В русском алфавите 32 буквы, из них 8 — гласных. Сколько информации содержит сообщение, что данная буква гласная? До получения сообщения вероятность того, что данная буква гласная Р0 = = 8/32 = 1/4 (по определению вероятности), после получения сообщения Р=1 (событие достоверное). Информация, содержащаяся в приведенном сообщении Н = log2Р/Ро = log21/1/4=2 бит.
Если передатчик выдает п сообщений в секунду и каждое сообщение содержит Н бит информации, то скорость передачи информации I передатчиком будет равняться:
I = пН. (10)
Для нормальной работы системы связи необходимо, чтобы скорость передачи информации передатчиком
23
была не больше пропускной способности канала связи, приемника и воспринимающей способности получателя. Например, рецепторный аппарат должен посылать информацию со скоростью не большей пропускной способности афферентных нервных путей. Если же условие согласования скорости передачи информации по всем элементам системы связи не соблюдается, то часть информации при передаче будет теряться. Максимальная скорость передачи информации в системе связи будет определяться элементом с наименьшей пропускной способностью.
При передаче информации от передатчика к приемнику по каналу связи часть информации теряется также вследствие помех, поэтому на схеме системы связи вместе с каналом связи изображен источник помех (схема 1). Борьба с вредным влиянием помех осуществляется путем многократного повторения сигнала. Это повторение может осуществляться двумя способами: повторением во времени и повторением в пространстве. В первом случае сигнал несколько раз подряд передается по одному каналу связи. Повторение в пространстве осуществляется путем передачи одного сигнала по нескольким параллельным каналам. Например, одни нейрон соединяется с другим несколькими синаптическими окончаниями и посылает импульсы сразу по всем параллельным отросткам.
Кодирование наследственной информации. Как известно, наследственная информация закодирована б структуре ДНК. Последовательность расположения азотистых оснований в молекуле ДНК определяет последовательность расположения аминокислотных остатков в молекуле белка. Подсчитаем, какое количество информации содержится в ДНК человека. ДИК содержит всего 4 азотистых основания: аденин, гуанин, цитозин и тимин. Любой произвольно выбранный нуклеотид может содержать одно из этих оснований, т. е. следует ожидать наступления одного из 4 событий. Тогда информация, приходящаяся на одну позицию в молекуле ДНК — па один нуклеотид, будет Н = log24=2 бит. М. Перутцем было определено, что в ДНК всех хромосом сперматозоида человека содержится 109 нуклеотидов. Тогда общее количество информации, содержащейся в ДНК человека, будет равно 2-Ю9 бит. Это огромное количество информации — 2 млрд. ответов по типу
24
«да», «нет». Данная цифра несколько завышена. Мы приняли, что вероятности наличия азотистых оснований в данном нуклеотиде одинаковы. На самом деле эти вероятности различны, поскольку азотистые основания содержатся в молекуле ДНК не в одинаковом количестве.
Подсчитаем количество информации, необходимое для синтеза одной молекулы белка. Всего имеется 20 различных аминокислот. Тогда на одну позицию в молекуле белка — на одну аминокислоту — будет приходиться Н=log220л;4 бит. Молекула белка содержит в среднем 103 аминокислотных остатков. Тогда в среднем молекула белка содержит 4-Ю3 бит информации. Если разделить количество информации, содержащейся в ДНК, на количество информации, содержащейся в молекуле белка, то будет получено количество молекул белка, способных синтезироваться в соответствии с информацией, полученной от ДНК: 2 -109/4 -103=500 000. Таким образом, ДНК человека содержит такое количество информации, которого достаточно для синтеза 500 000 различных белков. Считается, что один белок — это один фермент, а один фермент кодируется одним геном. Ген — дискретная единица наследственной информации, определяющая один признак организма. Тогда можно отметить, что ДНК человека содержит 500 000 генов, т. е. хранит информацию о 500 000 признаках данного организма. За счет этой информации человек проходит весь путь эмбрионального развития живых организмов, начиная от простейших.