Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Биофизика Губанов 1978.rtf
Скачиваний:
1
Добавлен:
01.05.2025
Размер:
69.56 Mб
Скачать

Часть первая основы общей биофизики

Г л а в а I

ЭЛЕМЕНТЫ ТЕОРИИ ИНФОРМАЦИИ И РЕГУЛИРОВАНИЯ БИОЛОГИЧЕСКИХ

Процессов

Кибернетика! это наука об общих законах связи и управления в разнообразных системах: технических устройствах, живых организмах, человеческом общест­ве. Возникновение кибернетики было подготовлено ря­дом технических и естественнонаучных достижений: во-первых, разработкой теории автоматического регулиро­вания и развитием радиоэлектроники, что позволило создать программно-управляемые вычислительные ма­шины; во-вторых, применением теории вероятностей к исследованию передачи и преобразования информации, т. е. созданием теории информации.

Возникновение теории информации обычно связы­вается с фундаментальной работой К. Шеннона «Мате­матическая теория связи», опубликованной в 1948 г. Важную роль в создании кибернетики сыграли работы и области физиологии, описывающие регуляцию раз­личных физиологических функций в организме и гомеостаз — постоянство параметров внутренней среды орга­низма. Особое значение приобрели работы П. К. Ано­хина, разработавшего теорию функциональной системы с обратной афферентацией о результатах действия (1935), которая предвосхитила развитие системного подхода в оценке поведения организмов. Только через

1 От греч. «kybernetike»— искусство управления.

9

12 лет после опубликования этой теории все ее основ­ные физиологические черты были развиты кибернети­кой.

Таким образом, кибернетика возникла в результате совместных усилий математиков, физиков, инженеров, биологов. Впервые обобщенно принципы кибернетики были изложены американским математиком Н. Вине­ром, которого называют «отцом кибернетики». Офици­ально временем рождения кибернетики считают год появления его фундаментального труда «Кибернетика», опубликованного в 1948 г. и быстро получившего приз­нание.

В отличие от других естественных наук, которые изучают системы с точки зрения изменения вещества в системе, а также с точки зрения энергетики процессов, кибернетика занимается рассмотрением процессов управления и регулирования в системах. Управление и регулирование осуществляются через постоянный об­мен и циркуляцию информации между элементами си­стемы. Химия, например, занимается рассмотрением процессов изменения вещества, превращения одних ве­ществ в другие, происходящего при химических реак­циях. Основными понятиями химии являются такие понятия, как атом, молекула, химическая реакция. Тер­модинамика рассматривает вопросы, связанные исклю­чительно с энергетической стороной процессов. Поэто­му основным понятием термодинамики является энер­гия.

Кибернетику не интересует ни материальная приро­да системы, ни энергетическая сторона процессов, про­текающих в системе. Ее интересуют те команды и информация, которые обусловили протекание именно данного процесса. Эта мысль хорошо выражена в опре­делении кибернетики, данном А. Н. Колмогоровым: «Ки­бернетика занимается изучением систем любой приро­ды, способных воспринимать, хранить и перерабаты­вать информацию и использовать ее для управления и регулирования». Основным количественным понятием кибернетики является информация. Таким образом, сущность кибернетики состоит в исследовании инфор­мационных процессов управления в машинах, организ­мах, обществе. Как установлено, эти процессы основа­ны на одних и тех же принципах, что и позволяет ки­бернетике рассматривать все эти системы.

10

Фундаментом кибернетики являются разные разде­лы математики: теория вероятностей, теория множеств, теория игр, математическая логика, теория алгоритмов и пр. Применение аппарата кибернетики облегчает си­стематизацию, понимание и моделирование общих схем и механизмов регулирования в организмах. Основная ценность применения кибернетических методов для ана­лиза процессов, протекающих в биологических систе­мах, заключается в том, что с их помощью можно ко­личественно подходить к оценке механизма регулиро­вания.

Кибернетика имеет очень большое значение для раз­вития медицины. Одним из основных направлений развития современной медицины является кибернетикоматематическое направление. Если раньше для характе­ристики жизни пользовались представлением об обмене веществ и энергии, то в настоящее время это представ­ление расширено. Для характеристики жизни необхо­димо использовать представление об обмене информа­цией, об информационных процессах. Живые системы обладают способностью к сохранению своих физико-хи­мических свойств при наличии внешних воздействий. Это сохранение возможно в результате наличия соот­ветствующих реакций, которые управляются специали­зированными управляющими системами, имеющими некоторую информацию — модель. Согласно А. А. Ля­пунову, «жизнь можно охарактеризовать как высокоустойчивое состояние вещества, использующее для выработки сохраняющих реакций информацию, коди­руемую состоянием отдельных молекул». При этом характерна передача информации от одних устойчивых систем к другим в процессе эволюции. В приведенном определении подчеркивается функциональная сторона явлений жизни, что позволяет рассматривать как жизнь не только определенные явления на Земле, но и искать новые формы жизни вне Земли.

В настоящее время живой организм представляют как сложную саморегулирующуюся систему, обмени­вающуюся веществом, энергией и информацией с окру­жающей средой. Информационные процессы (управле­ние, регулирование) являются определяющими в орга­низме. Это объясняется тем, что информация в сложной системе является первичной моделью, на основе кото­рой происходят все процессы.

11

Любой патологический процесс в организме с точки зрения кибернетики считается рассогласованием или нарушением регулирующих систем организма, а лече­ние представляет собой исправление или компенсацию этих нарушений. В настоящее время физиологии и ме­дицине известны лишь фрагменты сложнейшей сети ре­гуляций в организме. Биологическая и медицинская ки­бернетика также находятся лишь в стадии составления общих схем регулирования в организме. Делаются толь­ко первые шаги в направлении количественного описа­ния этих схем. Так как системы регулирования в орга­низме во всей их сложности неизвестны, то и не всегда возможно полностью исправить нарушения при их воз­никновении (при патологии). Помочь преодолеть этот недостаток может кибернетика, позволяющая качест­венно и количественно описывать процессы управления и регулирования.

ТЕОРИЯ СВЯЗИ И ТЕОРИЯ ИНФОРМАЦИИ

Итак, кибернетика — наука, изучающая процессы связи, управления и регулирования в различных систе­мах. Что же такое система?

Система — организованный комплекс элементов,

связанных друг с другом и выполняющих определенные функции, в соответствии с программой всей системы.

Программа, по Н. М. Амосову, это последователь­ность изменений системы в пространстве и во времени, заложенная в структуре самой системы. Если рассмат­риваются подсистемы, то программы для них могут по­ступать извне, а не быть заложенными в собственной структуре.

Под связью понимается взаимодействие элементов друг с другом, в процессе которого они обмениваются веществом, энергией и информацией Сущность кибер­нетики состоит в исследовании процессов управления. А содержанием процессов управления является прием, хранение, переработка и передача информации. Поэто­му в дальнейшем под связью мы будем понимать лишь передачу информации от одного элемента системы к другому.

Теоретическую основу систем связи составляют об­щая теория связи и количественная теория информа-

12

ции. Для их понимания необходимо знание теории ве­роятностей.

Предмет теории вероятностей составляют массовые случайные события, которые обладают устойчивой ча­стотой появления. Под случайным событием в теории вероятностей подразумевается такое событие, которое может произойти или не произойти в данных условиях. Согласно материалистической диалектике, случайность является формой проявления необходимости. Теория вероятностей позволяет точно описывать случайные яв­ления, и в этом состоит ее огромная ценность.

Допустим, мы имеем нервно-мышечный препарат и производим раздражение нерва током пороговой силы. Пусть мы произвели 100 опытов по раздражению нер­ва. При этом оказалось, что в 95 случаях мышца от­ветила сокращением на раздражение, а в 5 случаях — не ответила. Отношение числа событий, в которых на­ступило сокращение, к общему числу опытов будет на­зываться частотой появления сокращения мышцы. В данном случае это 95/100 = 0,95. Если в общем случае обозначим общее число испытаний N, а число испыта­ний, в которых наступило данное событие (назовем его Л), — п и частоту появления события А обозначим Ф(A), то

(1)

Допустим, мы провели еще несколько серий испыта­ний, каждая из которых содержит по 100 опытов, и по­лучили следующие частоты появления сокращения мышцы: 97, 93, 94, 96. Если мы теперь сложим частоты всех пяти серий и разделим полученную сумму на ко­личество серий, то получим вероятность сокращения мышцы:

Таким образом, вероятность это среднее значение частоты появления события при массовых испытаниях.

Если в сериях одинаковое количество опытов N, то можно найти среднее количество опытов в серии п, в которых наступает событие А. Тогда отношение сред­него количества данных событий А к общему количест-

13

в у событий в серии и будет вероятностью Р(А) появле­ния события А:

(2)

Вероятность вычисляется тем точнее, чем более массовым является испытание.

Из уравнения (2) следует, что вероятность может принимать значения от 1 до 0: 1≥Р(А)≥0. События, вероятность которых равна нулю, называются невозможными, а вероятность которых равна единице, — достоверными1 Вероятность всегда показывает долю дан­ных событии в общем количестве событий и поэтому является объективной мерой возможности данного со­бытия. Например, если известно, что Р(А) = 0,3 , а Р(В)=0,6 , то это говорит о том, что событие А насту­пает в среднем в 3 случаях из 10 и в 2 раза реже, чем событие В.

С ложение вероятностей. Говоря о событиях, мы раз­личаем события совместимые и несовместимые. Не­сколько событий называются несовместимыми в дан­ном опыте, если никакие два из них не могут появиться вместе, т. е. если события взаимно исключаются. В рас­смотренном примере имелись как раз несовместимые события: или есть сокращение мышцы, или нет его. Ес­ли же при осуществлении одного события возможны и другие события, то они называются совместимыми.

Пусть при проведении некоторой массовой операции было уста­новлено, что в каждой серии из N единичных операций наблюдается

в среднем:

причем в каждой операции наблюдается только одно из этих событий. Тогда вероятности событий равны соответственно:

и т. д. Какова вероятность того, что в некоторой еди­ничной операции может наступить какое-либо одно из этих событий, безразлично какое?

1 В (вариационной статистике событие считается достоверным, если его вероятность больше, а вероятность противоположного собы­тия '(ошибки) меньше определенных величин. Ори обработке цифро­вого материала в биологии и медицине результат обычаю считается достоверным, если вероятность ошибки меньше 0,05.

14

Интересующее нас событие можно назвать А1 либо А2, либо ... и записать А123+... Это событие в се­рии из N операций наступает в среднем n1+п2+п3+... раз. Искомая вероятность, что наступит одно из этих событий, равна:

Вероятность наступления в некоторой операции ка­кого-либо одного (безразлично какого именно) из со­бытий А123 ... равна сумме вероятностей этих со­бытий, если они несовместимы между собой.

Пример. В некоторой популяции животных име­ются самцы, самки и детеныши. Вероятность того, что первое выбранное животное будет самцом Р1 = 0,2, сам­кой— Р2=0,7, детенышем — Р3 = 0,1. Найти вероятность того, что первое выбранное животное будет или сам­цом, или самкой.

Данные события являются несовместимыми: живот­ное не может быть сразу и самцом и самкой. Интересу­ющую нас вероятность находим из уравнения (3):

Правило сложения вероятностей справедливо лишь для несовместимых событий, в противном случае оно становится невероятным и приводит к грубым ошибкам.

Вероятности противоположных событий. Пусть в се­рии из N событий событие Л наступает в среднем п раз. Тогда среднее количество ненаступления событий Л равно Nп. Данное событие, т. е. ненаступление со­бытия Л, мы будем называть противоположным собы­тием и обозначать Л. Таким образом, противоположны­ми являются два таких события, что в одном опыте на­ступает только какое-либо одно из этих событий. Оп­ределим, чему равна сумма вероятностей противопо­ложных событий:

Сумма вероятностей противоположных событий равна

единице. В нашем примере с нервно-мышечным препаратом вероятность сокращения мышцы составляла 0,95;

15

следовательно, вероятность отсутствия сокращения рав­на 1—0,95=0,05.

Сумма вероятностей всех событий серии. Пусть в серии из N событий всего т различных событий: А1, А2, А3...Аm. В каждом единичном опыте должно наступать любое только из этих событий. Определим, чему равна сумма вероятностей всех событий серии.

Данное положение называется теоремой о полной си­стеме событий: сумма вероятностей всех событий серии равна единице.

На этой теореме основывается априорный (до опытный) расчет вероятностей. Если, например, известно, что одно событие имеет вероятность 0,3, а несовмести­мое с ним событие — 0,4, то в данной системе событий имеются еще какие-то события и их вероятность равна 1—0,3—0,4 = 0,3. Наш пример с популяцией животных содержит полную систему событий, где сумма вероят­ностей всех событий равна единице.

Вероятность наступления совместимых событий. Ес­ли имеется несколько совместимых событий и они яв­ляются независимыми (когда наступление одного собы­тия не зависит от наступления других), то вероятность совместного наступления Р(А123*...Ап) любого чис­ла взаимно независимых событий равна произведению вероятностей этих событий:

В заключение приведем пример, в котором исполь­зуем большинство установленных правил. Известно, что для группы населения частота встречаемости или веро­ятность обнаружения зачатков сколиоза у детей школь­ного возраста Р(с)=0,7, а вероятность начинающейся порчи зубов (кариеса) Р(к)=0,6. Определить следую- 16

щие вероятности: Р(ск)—вероятность наличия сразу обоих расстройств, Р(с')—вероятность наличия только сколиоза, Р(к')—вероятность наличия только кариеса,

Рск)—вероятность отсутствия обоих расстройств.

Наличие сколиоза и наличие кариеса являются независимыми событиями, поэтому вероятность их одно­временного наличия у одного ребенка будет равна про­изведению вероятностей этих событий:

Р (ск) = Р (с) * Р (к) = 0,7*0,6 = 0,42.

Если из вероятности Р(с) наличия сколиоза вычесть вероятность наличия сразу обоих расстройств Р(ск), то и соответствии с правилом сложения вероятностей (3) получим вероятность наличия только сколиоза:

Р (с') = Р(с) — Р(ск) =0,7 — 0,42 = 0,28.

Таким же образом:

Р(к') =Р(к) — Р(ск) =0,6 —0,42=0,18.

Если воспользуемся правилом о сумме вероятностей противоположных событий, то получим вероятность от­сутствия сколиоза:

Р(с) = 1—Р(с) = 1 — 0,7=0,3.

Таким же образом:

Р(к) = 1 — Р(к) = 1 —0,6 = 0,4.

Вероятность отсутствия обоих расстройств будет равна произведению вероятностей отсутствия сколиоза и от­сутствия кариеса:

Р (ск) = Р (с) Р (к) = 0,3*0,4 = 0,12.

Мы вычислили все интересующие нас вероятности и по­лучили полную систему событий. Сумма вероятностей всех возможных событий равна единице:

Р (ск) + Р (с') + Р (к') + Р (ск) = 0,42 + 0,28 + 0,18 + 0,12 = 1.

На этом мы заканчиваем рассмотрение вопросов тео­рии вероятностей. Этим вопросам было уделено срав­нительно большое внимание в связи с тем, что в буду­щем вероятностные методы получат широкое распро­странение в медицине.

Система связи. В любой кибернетической системе имеются управляющая часть и объект управления, со-

2 Медицинская биофизика 17

единенные каналами связи. Связь состоит в восприя­тии, хранении и передаче информации. Устройство, ре­ализующее связь, называется системой связи. Система связи, по Шеннону, состоит из пяти частей (схема 1).

Источник сообщений подает сообщения, которые в передатчике превращаются в сигналы. Сигналы пере-

Схема 1. Схема обобщенной системы связи ((по Шеннону, 1948).

даются по каналу связи к приемнику, который снова превращает их в сообщения и направляет полу­чателю.

В качестве примера может быть приведена такая си­стема: книга — глаза — нервы — подкорковые зритель­ные центры — кора больших полушарий.

Под сообщением подразумевается все то, что подле­жит передаче в системе связи, поступает на вход пере датчика или создается на выходе приемника. Сообще­ния бывают двух видов: непрерывные и дискретные Непрерывные сообщения имеют характер непрерывно изменяющейся величины, например изменяющейся величины кровяного давления, температуры, напряжения мышц, музыкальной мелодии. Дискретные сообщения состоят из отдельных, отличающихся друг от друга ступеней или градаций. Это, например, химические ча­стицы, действующие на хеморецепторы, азотистые ос­нования молекулы ДНК, точки и тире в азбуке Морзе.

В технике существуют специальные методы преобразования непрерывных сообщений в дискретные.

Для того чтобы сообщение было передано данной системой связи, оно должно быть преобразовано на входе этой системы в физическую форму, пригодную для передачи по ее внутренним каналам. Так, сообще­ние, имеющееся в читаемой книге, преобразовывается зрительными рецепторами в последовательность нерв­ных импульсов, пригодных для анализа нервной систе-

18

мой. Эта возникающая в системе связи в результате преобразования новая физическая форма сообщения называется сигналом. Сигнал является материальным носителем сообщения.

Канал связи - это та среда, в которой осуществ­ляется передача сигналов. В нервной системе сигнала ми являются нервные импульсы, а каналом связи—нерв­ное волокно. При гуморальном воздействии сигналом является химическое вещество (гормон, медиатор и пр.), а каналом связи — кровь и тканевая жидкость.

Обычно сигналы обладают сравнительно небольшой энергией. Для приемника сообщений неважно, какой энергией обладают сигналы. Для него важен сам факт появления сигнала, т. е. та информация, которую пере­носят данные сигналы. Каким же образом сигналы, пе­реносящие информацию, осуществляют управление про­цессами, если они обладают небольшой энергией? Дело в том, что информация является моделью того или иного процесса и сигналы, переносящие данную ин­формацию, только модулируют данный высокоэнергети­ческий процесс. По мнению У. Эшби, сигналы регулируют поток энергии в управляемой системе, хотя сам управляемый процесс развивается за счет собственной энергии. Так, мышечное сокращение вызывается и уп­равляется нервными импульсами, поступающими по нервному волокну, а сам процесс мышечного сокраще­ния осуществляется за счет энергии гидролиза АТФ. В данном случае сигналы — нервные импульсы — регу­лируют через ряд стадий (возбуждение цитоплазматических мембран, освобождение ионов кальция) расщеп­ление АТФ актомиозином и, следовательно, мышечное сокращение. Это положение можно проиллюстрировать и на примере работы анализаторов. Внешние раздра­жители (свет, звук и др.), которые играют роль сигна­лов, модулируют нервные процессы в анализаторах. По­следние развиваются за счет собственной энергии кон­центрационных градиентов.

Преобразование сообщения в сигналы, а также преобразование одних сигналов в другие, наиболее приемлемые для передачи по данному каналу, называется, кодированием. Кодирование происходит в передатчике сообщений. В приемнике сигналов происходит обратный процессе — декодирование, т. е. превращение сигналов снова в сообщения, которые воспринимает получатель.

2* 19

Кодирование осуществляется с помощью элементов ко да: символов и позиций. Символы являются безраз­мерными величинами, которые качественно обозначают что-либо. Примерами символов могут служить буквы алфавита, математические знаки, нервные импульсы, молекулы пахучих веществ, азотистые основания в мо­лекуле ДНК и т. п.

Позиция является вторым элементарным структурным звеном кодирования Позиции определяют пространственное и временное размещение символов при кодировании. При кодировании и декодировании сооб­щении и сигналов каждой позиции по определенным правилам ставится один из символов применяемого ко­да в соответствии с размещением символов по позици­ям исходного сообщения пли сигнала. Например, бук­венный текст при кодировании азбукой Морзе заменя­ется определенной последовательностью точек и тире. Каждая система кодирования имеет свои правила. На­пример, принцип кодирования интенсивности раздра­жителя в большинстве анализаторов заключается в том, что при увеличении интенсивности раздражите­ля происходит завышение частоты нервных импуль­сов в афферентных волокнах по логарифмическому закону.

В результате кодирования между исходным сооб­щением и возникающими при кодировании сигналами устанавливается однозначное соответствие. Это свойство сигналов быть однозначными с сообщениями, быть по­добными сообщению, называется изоморфностью. Изо­морфные сообщения и сигналы всегда содержат одну и ту же информацию, хотя она выражена разными сред­ствами. Например, буквенный текст и тот же текст, за­писанный азбукой Морзе, являются (изоморфными со­общениями. На основе изоморфности возможно точное (адекватное) отражение сообщения в сигналах.

Вычисление информации. Живая природа создала множество различных типов систем связи. Одни из этих систем более совершенны, другие — менее. Более эффективной будет такая система связи, которая' за единицу времени способна передать большее количество сообщений. Как же оценивать сообщения? Для оценки сообщений введено специальное понятие — информация, которая является количественной мерой сообщения.

20

Сообщения и сигналы, которыми оперирует каждая система связи, относятся к категории случайных явлений. В любой момент времен» неизвестно, какое имен­но сообщение поступит на вход системы связи; сообще­ния, известные получателю, в передаче не нуждаются. События, о которых сообщается, нельзя предвидеть за­ранее, так как нет уверенности, что они произойдут, мим ожидаемым событием присуща неопределенность, которая затем устраняется по мере поступления информации. Согласно Шеннону, информация — это мера количества неопределенности, которая устраняется после получения сообщения. Мерой неопределенности событий является энтропия, подобно тому как она яв­ляется мерой неупорядоченности, хаотичности системы в термодинамике. Тогда информация, содержащаяся в сообщении, будет численно равна энтропии, исчезаю щей после получения сообщения.

Допустим, ожидается наступление какого-либо од­ного из N равновероятных событий. Относительно на­ступления этого события имеется неопределенность: мо­жет произойти с одинаковой вероятностью любое из этих событий. Количество неопределенности — энтропия Н в данном случае равна двоичному логарифму от числа ожидаемых событий:

(7)

Если теперь получено сообщение о том, что произошло какое-то из этих событий, то неопределенность полно­стью устраняется и полученное сообщение будет содер­жать информацию, численно равную устраненной энт­ропии.

Информация, вычисленная по уравнению (7), выражается в битах – двоичных единицах. Определим, что такое один бит. Для этого правую часть уравнения (7) приравняем к единице:

отсюда N=2. Таким образом, информация 1 бит содер­жится в сообщении о том, что наступило одно из двух равновероятных событий. Это количество информации, необходимое для выбора одной из двух равновероят­ных возможностей, дает ответ по типу «да», «нет». На­пример, было известно, что должен родиться или маль­чик, или девочка. Тогда сообщение «родился мальчик» содержит 1 бит информации.

21

Пример. Сколько информации содержится в со­общении о том, что данный нуклеотид в молекуле ДНК содержит цитозин, если известно, что азотистых осно­ваний в молекуле ДНК содержится примерно поровну? Так как всего имеется 4 азотистых основания и коли­чество их одинаково, то данный нуклеотид может с оди­наковой вероятностью содержать любое из этих 4 ос­нований. В данном случае ожидается наступление одно­го из 4 равновероятных событий. Информация, содер­жащаяся в приведенном выше сообщении, будет равна 2 бит:

Н = log24 = 2 бит.

Кроме единицы измерения информации бит, иногда применяется единица хартли. Эта единица получается, если при вычислении информации пользоваться не дво­ичным логарифмом, а десятичным:

1 хартли — количество информации, необходимое для выбора одной из десяти равновероятных возможностей. Соотношение для бит и хартли будет следующее:

1 хартли = log210 = 3,3 бит, 1 бит = lg2 = 0,301 хартли.

Выше было рассмотрено вычисление энтропии и ин-формации для самого простого случая, когда ожидае­мые события являются равновероятными. В том случае, если "ожидаемые" события неравно вероятны, вычисление энтропии и информации производится с помощью урав­нения Шеннона:

Н = -Σ Pilog2Pi (8)

i=1

где Σ — знак суммирования подзнакового выражения от 1 до п; Pi — вероятности всех ожидаемых событий от 1 до п; знак минус стоит потому, что логарифмы чи­сел от 0 до 1 отрицательны.

Пример. В некоторой популяции 20% всех жи­вотных являются самцами, 70%—самками, 10%—де­тенышами. Сколько информации содержится в сообще­нии, что данное животное является самцом? Опреде­лим вероятности всех ожидаемых событий. По опреде­лению вероятности (2) находим: вероятность того, что

22

случайно выбранное животное является самцом Р1= = 0,2, самкой — Р2 = 0,7, детенышем — Р3 = 0,1. Под­ставляя полученные вероятности в уравнение (8), на­ходим энтропию, которая была до получения сообще­ния:

Н = — [0,2log2 0,2 + 0,7log2 0,7 + 0, 1log2 0,1] = = — [—0,093—0,259—0,033] ==0,384 бит.

После получения сообщения о том, что животное — са­мец, энтропия стала равной нулю: Р1=1, Р2=0, Рз=0

и Н = 1 *log21 = 0 бит, поэтому приведенное сообщение содержит 0,384 бит информации.

Если после получения сообщения неопределенность полностью не устраняется, то для определения количе­ства информации необходимо взять разность между эн­тропией до получения сообщения и энтропией после по­лучения сообщения.

Некоторыми авторами для определения информации

в сообщениях предложено уравнение:

(9)

где Р0 — вероятность наступления события до получе­ния сообщения; Р — вероятность наступления события после получения сообщения.

Уравнение (9) применимо для вычисления инфор­мации независимо от того, полностью или не полностью устраняется неопределенность после получения сообще­ния.

Пример. В русском алфавите 32 буквы, из них 8 — гласных. Сколько информации содержит сообще­ние, что данная буква гласная? До получения сообще­ния вероятность того, что данная буква гласная Р0 = = 8/32 = 1/4 (по определению вероятности), после полу­чения сообщения Р=1 (событие достоверное). Инфор­мация, содержащаяся в приведенном сообщении Н = log2Р/Ро = log21/1/4=2 бит.

Если передатчик выдает п сообщений в секунду и каждое сообщение содержит Н бит информации, то скорость передачи информации I передатчиком будет равняться:

I = пН. (10)

Для нормальной работы системы связи необходимо, чтобы скорость передачи информации передатчиком

23

была не больше пропускной способности канала связи, приемника и воспринимающей способности получателя. Например, рецепторный аппарат должен посылать ин­формацию со скоростью не большей пропускной способ­ности афферентных нервных путей. Если же условие согласования скорости передачи информации по всем элементам системы связи не соблюдается, то часть ин­формации при передаче будет теряться. Максимальная скорость передачи информации в системе связи будет определяться элементом с наименьшей пропускной спо­собностью.

При передаче информации от передатчика к прием­нику по каналу связи часть информации теряется так­же вследствие помех, поэтому на схеме системы связи вместе с каналом связи изображен источник помех (схема 1). Борьба с вредным влиянием помех осущест­вляется путем многократного повторения сигнала. Это повторение может осуществляться двумя способами: повторением во времени и повторением в пространстве. В первом случае сигнал несколько раз подряд переда­ется по одному каналу связи. Повторение в пространст­ве осуществляется путем передачи одного сигнала по нескольким параллельным каналам. Например, одни нейрон соединяется с другим несколькими синаптическими окончаниями и посылает импульсы сразу по всем параллельным отросткам.

Кодирование наследственной информации. Как из­вестно, наследственная информация закодирована б структуре ДНК. Последовательность расположения азо­тистых оснований в молекуле ДНК определяет после­довательность расположения аминокислотных остатков в молекуле белка. Подсчитаем, какое количество ин­формации содержится в ДНК человека. ДИК содержит всего 4 азотистых основания: аденин, гуанин, цитозин и тимин. Любой произвольно выбранный нуклеотид может содержать одно из этих оснований, т. е. следует ожидать наступления одного из 4 событий. Тогда ин­формация, приходящаяся на одну позицию в молеку­ле ДНК — па один нуклеотид, будет Н = log24=2 бит. М. Перутцем было определено, что в ДНК всех хромо­сом сперматозоида человека содержится 109 нуклеотидов. Тогда общее количество информации, содержащей­ся в ДНК человека, будет равно 2-Ю9 бит. Это огром­ное количество информации — 2 млрд. ответов по типу

24

«да», «нет». Данная цифра несколько завышена. Мы приняли, что вероятности наличия азотистых оснований в данном нуклеотиде одинаковы. На самом деле эти ве­роятности различны, поскольку азотистые основания содержатся в молекуле ДНК не в одинаковом количе­стве.

Подсчитаем количество информации, необходимое для синтеза одной молекулы белка. Всего имеется 20 различных аминокислот. Тогда на одну позицию в мо­лекуле белка — на одну аминокислоту — будет прихо­диться Н=log220л;4 бит. Молекула белка содержит в среднем 103 аминокислотных остатков. Тогда в среднем молекула белка содержит 4-Ю3 бит информации. Если разделить количество информации, содержащейся в ДНК, на количество информации, содержащейся в мо­лекуле белка, то будет получено количество молекул белка, способных синтезироваться в соответствии с ин­формацией, полученной от ДНК: 2 -109/4 -103=500 000. Таким образом, ДНК человека содержит такое количе­ство информации, которого достаточно для синтеза 500 000 различных белков. Считается, что один белок — это один фермент, а один фермент кодируется одним геном. Ген — дискретная единица наследственной ин­формации, определяющая один признак организма. Тогда можно отметить, что ДНК человека содержит 500 000 генов, т. е. хранит информацию о 500 000 при­знаках данного организма. За счет этой информации че­ловек проходит весь путь эмбрионального развития жи­вых организмов, начиная от простейших.