- •Лекция 9
- •Общие принципы функционирования сенсорных систем у человека
- •Механизмы межклеточных взаимодействий
- •Принципы функционирования нервной и эндокринной системы человека. Рецепторы.
- •Механизмы передачи информации при помощи сигнальных молекул
- •Передача сигналов от плазматической мембраны внутрь клетки.
Лекция 9
Основные понятия теории информации. Механизмы межклеточных взаимодействий. Общие принципы функционирования сенсорных систем.
Живые организмы функционируют в постоянно изменяющихся условиях, и основой их выживания является способность реагировать на изменения условий соответствующим образом. У одноклеточных организмов единственная клетка осуществляет все функции, необходимые для жизнедеятельности: передвижение, усвоение питательных веществ из окружающей среды, трансформации энергии, синтез новых молекул, размножение и передача наследственной информации и другие. Одноклеточные организмы обмениваются информацией с внешней средой. У многоклеточных организмов обмен информацией осуществляется как с внешней средой, так и внутри организма - между клетками различных органов, тканей. Как известно, клетки многоклеточных организмов строго дифференцированы по функциям, т.е. определенные клетки выполняют соответствующие функции. Поэтому для нормального функционирования многоклеточного организма необходимы механизмы обмена информацией, посредством которых отдельные клетки, ткани, органы взаимодействуют между собой.
Начальным звеном во всех реакциях на воздействие (стимул, раздражение) является превращение стимула в определенный физиологический процесс, который содержит в себе информацию об этом воздействии. Раздражение формируется при действии на клетку самых различных факторов ( механических, температурных, электрических, электромагнитных, химических, гравитационных и других ). Трансформация энергии раздражителя в информацию осуществляется на плазматических мембранах клеток. Участок плазматической мембраны, воспринимающий действие раздражителя на клетку называется рецептором. Рецепторы не только регистрируют факт воздействия стимула на клетку, но и отражают определенные параметры раздражителя. У многоклеточных организмов рецепторами могут служить специализированные клетки или группы клеток. В рецепторах осуществляются процессы перекодировки энергии раздражителя в определенные сигналы, которые воспринимаются рецепторной клеткой и (или) передаются другим клеткам. деятельности клеток. Таким образом, рецепторы воспринимают и перерабатывают информацию. Этот процесс кодирования, передачи и обработки информации о раздражителях обозначается как сенсорная деятельность организма, а структуры, его осуществляющие, называются сенсорными (чувствительными) системами.
Термином "информация" принято обозначать меру той неопределенности о какой - либо системе, процессе, которая уменьшается или исчезает после получения сведений. Важной характеристикой информации является ее количество. Рассмотрим на конкретном примере понятие "количество информации". При каждом подбрасывании шестигранного кубика мы получаем информацию о цифрах на его гранях, т.е. наше незнание (неопределенность) об этом параметре системы уменьшается. В нашем случае, число равновероятных событий N , которое несет полную информацию о системе, равно 6. Подбросив кубик 6 раз, мы получим полную информацию о цифрах на всех шести гранах кубика. Чем больше N, тем больше неопределенность об этой системе. При многократном получении сведений о системе, количество информации суммируется. Принято, что количество информации I является логарифмической функцией от числа равновероятных событий ( микросостояний)
I = lg2 N
Логарифм по основанию 2 выбран не случайно. Количество информации кодируется и передается в двоичном коде. Источник информации отбирает между двумя возможностями: "да" или "нет", "+" или "-", "1" или "0". В двоичном коде любое число микросостояний (событий) можно представить как :
N = 2n , тогда I = lg2 2n ,
где n - количество двоичных ячеек.
За единицу информации принято количество информации, содержащееся в системе с N = 2, т.е. в этом случае для получения полной информации достаточно одного сведения ( n = 1 ).
I = lg2 2 = 1
Такое количество информации составляет 1 бит. Например, 1 бит информации мы получаем при подбрасывании монеты: "орел" или "решка". Если N = 4, (22), тогда I = lg2 4 = 2 бит, при N = 8 (n = 3), I = lg2 8 = 3 и т д.
Таким образом, при N = 2n , I = n бит.
Двоичная система записи информации широко используется в современной электронно-вычислительной технике. Минимальной единицей количества информации в памяти ЭВМ является 1 байт. 1 байт - это количество информации, заключенная в 8 битах или в 8 двоичных ячейках (n = 8). По - другому, в 1 байте информации заложена информация о 256 микросостояниях (N = 28 = 256).
Информацию о каждом микросостоянии (равновероятном событии) можно получить в результате одного из возможных сообщений. Вероятность появления любого события (микросостояния)
P = 1/N, соответственно, N = 1/ P
I = lg2 N = lg2 1/ P = - lg2 P
Если события не равновероятны, тогда определяется среднее количество информации Iср с N микросостояниями:
Iср = P(xi) lg2 P(xi)
где N –число неравновероятных событий, P - вероятность появления xi события.
Количество информации при неравновероятных событиях называется энтропией и формально она эквивалентна термодинамической вероятности (энтропии). Максимальное значение энтропии будет в том случае, если P(xi) = 1/ N, тогда Imax = lg2 N. Величина Imax показывает среднее число бинарных решений, необходимых для выбора одного события из N ситуаций и называется количеством решений.
Основоположником общей теории информации является английский математик К. Шенон. Так называемый "шеноновский" канал передачи информации включает источник информации (х), приемник информации (У) , кодирующее устройство (1), информационный канал (2), декодирующее устройство (3). Информация в информационный канал поступает через кодирующее устройство. Приемник принимает информацию после декодирования. При наличии в информационном канале источника шумов (4) происходит искажение поступающей информации.
Рис.1. Схема устройства передачи информации ( по Шенону):
Х –источник информации; У- приемник информации; 1 – кодирующее устройство; 2- канал передачи информации; 3- декодирующее устройство; 4 – источник шумов (искажений) информации.
Связь приемника с источником информации характеризуется количеством трансформации (Т).
Т = H(x) + H(у) - H(x,у)
где H(x) – энтропия (количество информации) источника информации, H(у) - энтропия приемника информации, H(x,у) - энтропия связи источника и приемника.
Зная значение Т можно рассчитать мощность канала (С): максимально возможную величину количества информации, проходящей через канал.
С = (Т/ )max ,
где - среднее время передачи одного информационного символа.
Максимальный поток информации в единицу времени называют пропускной способностью канала. Ниже приводятся величины пропускной способности некоторых информационных каналов:
телевизионный канал - 7 ·107 бит/с·;
телефонный канал - 5 ·104 бит/с;
глаза человека - 3 ·106 бит/с;
уши человека - 4· 104 бит/с;
чтение - 45 бит/с;
подсчеты («в уме») - 3 бит/с.
