Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
lek. 9, 10 (инфо)..doc
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
686.59 Кб
Скачать

Лекция 9

Основные понятия теории информации. Механизмы межклеточных взаимодейст­вий. Общие принципы функционирования сенсорных систем.

Живые организмы функционируют в постоянно изменяющихся условиях, и ос­новой их выживания является способность реагировать на изменения условий соот­ветствующим образом. У одноклеточных организмов единственная клетка осуществляет все функции, необ­ходимые для жизнедеятельности: передвижение, усвоение питательных веществ из окру­жающей среды, трансформации энергии, синтез новых молекул, размножение и передача на­следственной информации и другие. Одноклеточные организмы обмениваются информацией с внешней средой. У многоклеточных организмов обмен информацией осуществляется как с внешней средой, так и внутри организма - между клетками различных органов, тка­ней. Как известно, клетки многоклеточных организмов строго дифференцированы по функциям, т.е. определенные клетки выполняют соответствующие функции. Поэтому для нормального функционирова­ния многоклеточного организма необходимы меха­низмы обмена информацией, посредством которых отдельные клетки, ткани, органы взаимодействуют ме­жду собой.

Начальным звеном во всех реакциях на воздействие (стимул, раздражение) является пре­вращение стимула в определенный физиологический процесс, который содержит в себе ин­формацию об этом воздействии. Раздражение формируется при действии на клетку самых различных факторов ( механических, температурных, электрических, электромагнитных, хи­мических, гравитационных и других ). Трансформация энергии раздражителя в информацию осуществляется на плазматических мембранах клеток. Участок плазматической мембраны, воспринимающий действие раздражителя на клетку называется рецептором. Рецепторы не только регистрируют факт воздействия стимула на клетку, но и отражают опреде­ленные параметры раздражителя. У многоклеточных организмов рецепторами могут слу­жить специализированные клетки или группы клеток. В рецепторах осуществляются про­цессы перекодировки энергии раздражителя в определенные сигналы, которые воспринима­ются рецепторной клеткой и (или) передаются другим клеткам. деятельности клеток. Таким образом, ре­цепторы воспринимают и перерабатывают информацию. Этот процесс кодирова­ния, передачи и обработки информации о раздражителях обозначается как сенсорная дея­тельность организма, а структуры, его осуществляющие, называются сенсорными (чувстви­тельными) системами.

Термином "информация" принято обозначать меру той неопределен­ности о какой - либо системе, процессе, которая уменьшается или исчезает после получения сведений. Важной характеристикой информации является ее количество. Рассмотрим на конкретном примере понятие "количество информации". При каждом подбрасывании шес­тигранного кубика мы получаем информацию о цифрах на его гранях, т.е. наше незнание (неопределенность) об этом параметре системы уменьшается. В нашем случае, число равно­вероятных событий N , которое несет полную информацию о системе, равно 6. Подбросив кубик 6 раз, мы получим полную информацию о цифрах на всех шести гранах кубика. Чем больше N, тем больше неопределенность об этой системе. При многократном получении сведений о системе, количество информации суммируется. Принято, что количество инфор­мации I является логарифмической функцией от числа равновероятных событий ( микро­состояний)

I = lg2 N

Логарифм по основанию 2 выбран не случайно. Количество информации кодируется и передается в двоичном коде. Источник информации отбирает между двумя возможно­стями: "да" или "нет", "+" или "-", "1" или "0". В двоичном коде любое число микросостоя­ний (событий) можно представить как :

N = 2n , тогда I = lg2 2n ,

где n - количество двоичных ячеек.

За единицу информации принято количество информации, содержащееся в системе с N = 2, т.е. в этом случае для получения полной информации достаточно одного сведения ( n = 1 ).

I = lg2 2 = 1

Такое количество информации составляет 1 бит. Например, 1 бит информации мы получаем при подбрасывании монеты: "орел" или "решка". Если N = 4, (22), тогда I = lg2 4 = 2 бит, при N = 8 (n = 3), I = lg2 8 = 3 и т д.

Таким образом, при N = 2n , I = n бит.

Двоичная система записи информации широко используется в современной элек­тронно-вычислительной технике. Минимальной единицей количества информации в памяти ЭВМ является 1 байт. 1 байт - это количество информации, заключенная в 8 битах или в 8 двоичных ячейках (n = 8). По - другому, в 1 байте информации заложена информация о 256 микросостояниях (N = 28 = 256).

Информацию о каждом микросостоянии (равновероятном событии) можно получить в результате одного из возможных сообщений. Вероятность появления любого события (микросостояния)

P = 1/N, соответственно, N = 1/ P

I = lg2 N = lg2 1/ P = - lg2 P

Если события не равновероятны, тогда определяется среднее количество информации Iср с N микросостояниями:

Iср = P(xi) lg2 P(xi)

где N –число неравновероятных событий, P - вероятность появления xi события.

Количество информации при неравновероятных событиях называется энтропией и формально она эквивалентна термодинамической вероятности (энтропии). Максимальное значение энтропии будет в том случае, если P(xi) = 1/ N, тогда Imax = lg2 N. Величина Imax показывает среднее число бинарных решений, необходимых для выбора одного события из N ситуаций и называется количеством решений.

Основоположником общей теории информации является английский математик К. Шенон. Так называемый "шеноновский" канал передачи информации включает источник информации (х), приемник информации (У) , кодирующее устройство (1), информационный канал (2), декодирующее устройство (3). Информация в информационный канал поступает через кодирующее устройство. Приемник принимает информацию после декодирования. При наличии в информационном канале источника шумов (4) происходит искажение посту­пающей информации.

Рис.1. Схема устройства передачи информации ( по Шенону):

Х –источник информации; У- при­емник информации; 1 – кодирующее устройство; 2- канал передачи информации; 3- декоди­рующее устройство; 4 – источник шумов (искажений) информации.

Связь приемника с источником информации характеризуется количеством транс­формации (Т).

Т = H(x) + H(у) - H(x,у)

где H(x) – энтропия (количество информации) источника информации, H(у) - энтро­пия приемника информации, H(x,у) - энтропия связи источника и приемника.

Зная значение Т можно рассчитать мощность канала (С): максимально возможную величину количества информации, проходящей через канал.

С = (Т/ )max ,

где - среднее время передачи одного информационного символа.

Максимальный по­ток информации в единицу времени называют пропускной способностью канала. Ниже при­водятся величины пропускной способности некоторых информационных каналов:

телевизионный канал - 7 ·107 бит/с·;

телефонный канал - 5 ·104 бит/с;

глаза человека - 3 ·106 бит/с;

уши человека - 4· 104 бит/с;

чтение - 45 бит/с;

подсчеты («в уме») - 3 бит/с.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]