Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Теория информации..pdf
Скачиваний:
22
Добавлен:
15.11.2022
Размер:
10.05 Mб
Скачать

1. ИНФОРМАЦИЯ И ИНФОРМАЦИОННЫЕ СИСТЕМЫ

1.1. Основные понятия и концепции теории информации

Трудно найти более широкое и употребительное понятие, чем информация, но отнюдь не легче дать ему определение, которое объ­ единило бы в себе множество смысловых значений, сопровождающих употребление этого термина.

Имеется множество определений понятия информации от наибо­ лее общего философского (информация есть отражение реального мира) до наиболее узкого практического (информация есть все сведе­ ния, являющиеся объектом хранения, передачи и преобразования).

Некоторыми зарубежными авторами информация трактуется с идеалистических позиций в отрыве от материи как некоторая суб­ станция, занимающая промежуточное положение между материей и сознанием.

Несомненно, что формулируемое определение должно характери­ зовать наиболее общие и существенные признаки информации. Так как теория информации плодотворно используется уже во многих областях, то обсуждение вопроса о том, что такое информация, вышло за рамки технических, естественных и других частных наук. Понятие информации должно рассматриваться в связи со структурой, сложностью, упорядочен­ ностью, организацией объектов любой природы.

Понятия структуры, системы, организации, упорядоченности предпо­ лагают использование понятия разнообразия, поэтому при анализе поня­ тия информации следует в качестве его основы принять концепцию разно­ образия, понимая под разнообразием не только разнообразие элементов, но и разнообразие связей, отношений, свойств и т.д.

Разнообразие имеет определенные аспекты и этот факт нашел свое отражение в различных подходах к созданию теории информа­ ции, в различных математических концепциях информации, изучаю­ щих различные классы разнообразия: статистическое, комбинаторное, алгоритмическое, топологическое и другие.

Впервые концепцию разнообразия, различия для построения те­ ории информации (точнее, ее статистического варианта) применил У. Эшби [17].

Под разнообразием У. Эшби понимает характеристику элементов некоторого конечного множества, заключающуюся в их отличии друг от друга, несовпадении. Если множество имеет некоторое разнообра­ зие и происходит выбор из этого множества, то различные возможные результаты этого выбора связаны с соответствующими вероятностями элементов, т. е множество с вероятностями отображается в множестве с разнообразием. Эта идея принята им в качестве статистической моде­ ли понятия информации на основе понятия различия, разнообразия.

Если разнообразие множества связать с понятием информации, то ло­ гарифмическая мера степени разнообразия, равная логарифму мощности этого конечного множества, может быть принята в качестве меры количес­ тва информации.

Некоторой мерой ограничения разнообразия в процессе его перехода от возможности к действительности является вероятность. С ограничени­ ем разнообразия как соотношением возможного и действительного раз­ нообразия также связано понятие неопределенности. Это свидетельствует о глубокой связи понятий информации, вероятности и неопределенности на основе концепции разнообразия и поэтому представляется закономер­ ным, что первый (статистический) вариант теории информации, разрабо­ танный К. Шенноном, был создан именно на этой основе.

Однако разнообразие - это еще не информация. Разнообразие есть ос­ нова информации, а понятие разнообразия - существенный признак содер­ жания понятия информации. Не менее существенным является и другой признак - отражение, а информация представляется как содержание отра­ жения. Такой подход наметил Н. Винер, определив понятие информации как обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему и приспособления к нему наших чувств.

Отражение - это такое взаимодействие материальных систем, кото­ рое ведет к установлению определенного тождества между системами, когда содержание одной системы (отражающей) соответствует содер­ жанию другой (отражаемой). Общее определение отражения отнюдь не исключает наличия отражения и внутри системы, ибо между ее частями всегда существует взаимодействие, т.е. можно говорить о самоотражении как особом виде отражения.

Весьма распространенным является также мнение о том, что ин­ формация присуща лишь определенным образом организованной ма­ терии, в которой возможны процессы управления. Сторонники этой

точки зрения под информацией подразумевают только то, что воспри­ нято и осмыслено, т. е. то, что целесообразно использовать для управ,- ления. Нетрудно заметить, что вопрос о существовании информации здесь неправомерно отождествляется с вопросом о способности объ­ екта к восприятию и использованию информации. При таком подходе легко сойти на позиции субъективизма, ставящего объективно сущес­ твующее в зависимость от воспринимающего субъекта.

При всех различиях в трактовке понятия информации бесспорно то, что проявляется информация всегда в материально-энергетической форме в виде сигналов. Информацию, представленную в формализован­ ном виде, позволяющем осуществить ее обработку с помощью техничес­ ких средств, называют данными.

В настоящее время существует множество достаточно самостоя­ тельных ветвей развития теории информации, изучающих различные ее виды и функции, однако в каждой из них исследование ведется либо в количественном, либо в качественном аспекте. Первое направление, получившее название математического, изучает количественные соот­ ношения и в качестве одного из основных понятий оперирует с коли­ чеством информации. Второе, логическое направление изучает смыс­ ловое содержание (семантическая теория) и ценность информации (прагматическая теория).

Существующие математические теории информации используют один из следующих подходов: статистический (вероятностный), ком­ бинаторный, топологический и алгоритмический.

Статистическая теория информации, основы которой разработаны К.Шенноном, является исторически первой и достаточно законченной теорией, оказавшей существенное влияние на все последующие ис­ следования.

К. Шеннон одним из первых обратил внимание на то, что коли­ чество информации может быть определено на основе понятия веро­ ятности.

Неопределенность (определенность) может быть принята в качестве характеристики как объективной действительности, так и ее отражения в формах деятельности субъекта, а потому правомерно связать изменение неопределенности с количественной мерой информации.

Статистическая теория информации отвлекается от качественной стороны неопределенности, количественное снятие неопределенности

трактуется как процесс получения информации, а в качестве меры сня­ той неопределенности используется понятие количества информации.

Таким образом, в статистической теории информации мера снятой неопределенности в результате некоторого события, вероятность которого известна, называется количеством информации или, точнее, индивидуаль­ ным количеством информации. При этом не учитывается качество, смысл, ценность и т. д. информации.

Обычно рассматривается не индивидуальное, а среднее количес­ тво информации для некоторой совокупности событий, зависящее не только от их количества, но и от распределения вероятностей.

1.2.Основные направления в современной теории информации

Всовременной теории информации выделяется три основных на­ правления, которые в настоящее время развиваются наиболее интен­ сивно:

1.Семантическое, задачей которого является исследование смыс­ лового содержания информации.

2.Прагматическое, объектом исследования в котором является ценность информации.

3.Статистическое, в котором на основе вероятностного подхода

кинформационным процессам изучаются математические закономер­ ности получения, передачи и использования информации в системах связи и управления.

Рассмотрим кратко указанные направления развития теории ин­ формации.

1.2.1. Семантические теории информации Основная идея семантической концепции информации заключа­

ется в возможности измерения содержания суждений, которое связа­ но с его формой, т.е. здесь семантические свойства выражаются через синтаксические свойства информации.

Синтаксические свойства характеризуют внутренние отношения между элементами и их связями, это свойство конкретной системы, и цель синтакгики - изучение только формальных аспектов языка [Харкевич]. Семантика же изучает не только формальные правила, но и правила от­

ношений информации к действительным вещам и их связям. Поскольку в формальных конструкциях отображается действительность, то возмож­ но измерение содержания через его форму - в этом исходные предпосыл­ ки семантических теорий информации.

Семантическая теория информации является логическим анало­ гом теории Шеннона. Для измерения содержания высказывания ис­ пользуется понятие логической вероятности, например, степени под­ тверждения гипотезы, записанной на формализованном языке.

Содержание информации определяется возможными состояниями обозначаемого объекта в данной языковой системе. С помощью мето­ дов индуктивной логики выявляется связь выдвинутой гипотезы с на­ чальным достоверным знанием. Связь между гипотезой и достоверным знанием определяется степенью подтверждения гипотезы. Логарифм степени подтверждения гипотезы принимается равным количеству се­ мантической информации, содержащейся в гипотезе.

Перспективный подход к оценке семантической информации пред­ ложен Ю. Шрейдером [14] на базе образной концепции значения и кон­ цепции разнообразия. Теория строится в предположении, что приемнику известен алфавит источника сообщений. В более общей формулировке это означает, что приемник обладает некоторым запасом знаний - тезау­ русом, который может с получением сообщений изменяться, если сущес­ твует алгоритм их анализа. При этих условиях количество семантической информации, содержащейся в сообщении, естественно измерять степе­ нью изменения тезауруса под влиянием содержания сообщения.

В отличие от вероятностных теорий информации, ще количество по­ лучаемой информации тем больше, чем меньше сведений имеется об ис­ точнике, в теории Ю. Шрейдера мера семантической информации растет, если одно и то же сообщение поступает в приемники со все более слож­ ным (богатым) тезаурусом, так как в более сложных тезаурусах больше возможностей для изменения. Действительно, содержание информации должно быть формализовано на языке, понятном приемнику, в противном случае ее восприятие останется на синтаксическом уровне как набор не­ которых знаков, не имеющих семантического содержания. Однако и при известных алфавите и коде количество семантической информации может быть равно нулю, во-первых, потому что сообщение содержит понятия, неизвестные приемнику в силу бедности его тезауруса, и, во-вторых, если содержание сообщения не имеет существенной новизны.

Между этими границами лежит область, где приемник получает от источника сообщений некоторое количество информации. Естественно предположить, что внутри этой области достигается максимум восприятия семантической информации, положение которого зависит как от сложнос­ ти сообщения, так и от уровня развития тезауруса приемника.

Совершенно ясно, что передачу информации нужно вести вблизи этого максимума, для чего необходима оптимизация режимов переда­ чи и восприятия информации.

Математические и логические методы такой оптимизации в на­ стоящее время интенсивно разрабатываются, однако говорить об ощу­ тимых практических результатах пока преждевременно.

Предпринимались и другие более или менее удачные попытки оценить семантику информации.

1.2.2. Прагматические теории информации Прагматические теории информации в качестве объекта исследования

рассматривают ценность информации как отношение между информацией и воспринимающей ее системой, в то время как семантические теории исследуют отношение между информацией и источником сообщений.

Однаиз первыхтаких теорий [15] основывалась натом, что информация служит для достижения некоторой определенной цели и является ценной, если способствует достижению данной цели. Однако одна и та же информа­ ция может иметь различную ценность, если рассматривать ее с точки зрения использования для различных целей. Ограничиваясь случаем, когда цель до­ статочно точно определена, в [15] делается вывод, что ценность может быть измереначерезприращениевероятностидостижения цели,т.е.через количес­ тво информации, принятоев статистическойтеории, где под количеством ин­ формации понимается мера снятой неопределенности. При статистическом подходе полагается, что неценная информация не уменьшает неопределен­ ность, и поэтому если в результате получения сообщения неопределенность не уменьшилась, то считается, что приемник не получил информации. Та­ ким образом, статистическая теория учитывает ценность лишь в некоторой, отнюдь не достаточной степени, так как приемник и цель передачи инфор­ мации (снятие неопределенности) всегда фиксированы, а варьируется лишь количество информации. А для прагматической теории (теории ценности) необходимо варьировать не только количество информации, но и получате­ лей, и цели, которые они ставят.

Поэтому прагматические теории информации рассматривают тео­ рию Шеннона как предельный, частный случай - для фиксированны* получателей информации и целей.

Следует отметить, что вероятность достижения цели при получе­ нии сообщения увеличивается только тогда, когда содержащаяся в нем информация является истинной, т.е. неискаженной в процессе переда­ чи. Поскольку понятия истинности и ложности являются семантичес­ кими характеристиками, то отсюда следует, что ни количественные, ни семантические, ни прагматические аспекты информации не могут рассматриваться изолированно друг от друга. Поэтому в достаточ­ но абстрагированной статистической теории неявно предполагается и ценность, и смысл информации.

Другой вариант прагматической теории, разрабатываемый в [13], использует теоретико-игровой подход, связывающий статистичес­ кую теорию информации с теорией оптимальных решений. В отли­ чие от количества информации, определяемого лишь заданием веро­ ятностей, мера ценности информации здесь определяется введением функции потерь (штрафов), т.е. наряду с пространством вероятностей вводится пространство оценок. Оценка информации производится в зависимости от конкретных решаемых задач (целей) по результатам минимизации потерь. Максимальной ценностью обладает та инфор­ мация, которая уменьшает потери до нуля.

Представляет интерес также теория ценности, впервые пред­ ложенная в [16], где предполагается, что неопределенность может не только уменьшаться, но и возрастать, если передается ложное со­ общение - дезинформация. Таким образом, информация может иметь и отрицательную ценность или не иметь ее вовсе. Понятие полезной информации вводится с помощью решающего алгоритма. Инфор­ мация называется полезной, если она уменьшает неопределенность решающего алгоритма. Изменение неопределенности связано с пе­ рераспределением вероятностей в решающем алгоритме. Изменение этих вероятностей в соответствии с поступающей информацией осу­ ществляется декодирующим алгоритмом. Полезность информации приобретает смысл, если указаны решаемая задача, начальное состоя­ ние решающего алгоритма и свойства декодирующего алгоритма.

Нетрудно заметить, что во всех трех подходах, наряду с определенны­ ми различиями, ценность информации связывается с той или иной целью,

а измеряется при помощи количества информации. Совершенно очевидно, что объективной основой ценности информации является разнообразие, так как ценность всегда связана с возможностью выбора. Любой объект содержит бесконечное количество элементов, связей, отношений, т. е. по­ тенциально содержит бесконечное количество информации. В соответс­ твии с поставленной целью происходит некоторый выбор из бесконечного разнообразия, т. е. его ограничение, поэтому ценность информации может рассматриваться как свойство ограничения разнообразия, изменяющееся в зависимости от целей воспринимающей системы.

1.2.3. Статистическая теория информации Разработка статистической теории информации была вызвана прак­

тической необходимостью решения проблем связи и управления, где воп­ росы передачи и переработки информации занимают центральное место. Изучение закономерностей передачи сообщений по техническим каналам связи, установление существенной общности и взаимосвязи процессов управления и коммуникации привело к появлению вероятностно-статис­ тических методов определения количества передаваемой информации. В результате этого в 1948 году независимо друг от друга были опубликова­ ны работы Н. Винера и К. Шеннона [4], содержащие основные идеи, поло­ жения и математический аппарат современной статистической теории ин­ формации. Главная роль здесь все же принадлежит ставшей классической статье К. Шеннона, которую автор назвал «Математическая теория связи», но в которой содержались важнейшие принципы и теоремы, составляю­ щие основное содержание не только современной теории информации, но и теории передачи информации, теории кодирования и т.д.

Статистическая теория информации К. Шеннона накладывает на исследуемые явления четкую систему абстракций, основанную на том универсальном свойстве процессов связи, что каждое сообщение, незави­ симо от его природы, содержания и назначения, выбирается из заранее из­ вестного множества возможных сообщений (множества, имеющего неко­ торое разнообразие), поэтому получателю информации достаточно знать результат выбора (ограничения разнообразия), неопределенность которого до получения сообщения зависит от числа элементов множества сообще­ ний (степени разнообразия) и их вероятностей, равных в сумме единице.

Таким образом, в качестве объекта исследования рассматривается некоторый ансамбль событий, состояниям которого присуща некото­

рая степень неопределенности или, другими словами, рассматривает­ ся оистема, обладающая некоторым разнообразием.

Отражение этого разнообразия в вероятностном (статистическом) смысле характеризует информацию, получаемую от системы в виде не­ которых сведений, интересующих получателя. Информация, выраженная в некоторой форме, представляет собой сообщение, как совокупность сведений о рассматриваемой системе. Сообщение приобретает смысл толью тоща, когда состояние системы случайно, неопределенно, иначе не было бы смысла передавать сообщение. Сообщения любых реальных ис­ точников информации (дискретных и непрерывных) можно представить конечным набором кодовых знаков из конечного алфавита. В случае, на­ пример, двоичной системы счисления все сообщения можно закодировать последовательностью нулей и единиц, при этом источник в абстрактной модели системы будет иметь алфавит из двух символов, но тем не менее полностью опишет реальный источник с алфавитом из любого конечного числа символов. Введение такой абстракции правомерно, если принять во внимание принципиально ограниченную разрешающую способность получателя информации, поэтому те сообщения, которые не различимы получателем, можно рассматривать как одно сообщение. Задача измере­ ния информации в этом случае сводится к определению минимально не­ обходимого для представления сообщения количества символов алфавита (нулей и единиц). Это число зависит от меры неопределенности, выбора символа реального источника. В качестве меры неопределенности в ста­ тистической теории информации принята величина энтропии ансамбля событий (источника сообщений).

По своему физическому смыслу энтропия источника сообщений - это минимально необходимое число знаков некоторого кода (опре­ деляемого единицей измерения), которое нужно затратить в среднем на один символ реального алфавита источника, когда он посредством операции кодирования заменяется своим отображением в абстрактной системе связи.

Уменьшение степени неопределенности состояния системы в ре­ зультате сообщения (разность априорной и апостериорной энтропии системы) в статистической теории информации измеряется количест­ вом информации. Если используется алфавит из двух символов, то еди­ ница измерения энтропии и количества информации называется «бит» (binary digit). Следует отметить, что выражение количества информа­

ции в абстрактной системе связи в битах носит идеальный характер. В реальных сообщениях никаких «бит», естественно, не содержится, и выражение «передано 10 бит информации» означает только и только то, что процесс передачи сообщения, которое может иметь сколь угод­ но сложную форму, эквивалентен в технике связи передаче десяти че­ редующихся в определенном порядке токовых посылок и пауз.

В процессе передачи и обработки сообщения в информационной системе обычно происходит изменение формы, перекодирование раз­ нообразия. Поэтому следует отметить, что объектом передачи в системе связи является не форма представления сообщения, а такая информация о нем, которая позволяет восстановить на приемной стороне исходное сообщение с требуемой точностью. Именно эта информация должна оставаться инвариантной при всех преобразованиях ее материального носителя. Физическая величина, отображающая сообщение источника информации, называется сигналом. Под сигналом понимается любой процесс или объект, при помощи которого можно передавать закодиро­ ванное разнообразие. В частном случае сообщение и сигнал могут сов­ падать. Совершенно очевидно, что процесс отражения разнообразия (передача информации), кроме отражаемого и отражающего объектов (источника и получателя информации), может осуществляться только при наличии еще одного компонента - среды. Такой средой, предназна­ ченной для передачи сигнала, является канал связи.

Итак, согласно концепции Шеннона в статистической теории ин­ формации любые качественно различные сообщения преобразуются в единую абстрактную математическую форму, а все разнообразные способы передачи сообщений приводятся к единой абстрактной моде­ ли системы связи, состоящей из следующих основных компонентов:

1. Источник информации, создающий сообщение или последова­ тельность сообщений, которые могут представлять собой последова­ тельность букв или цифр, некоторую непрерывную функцию времени или других переменных, несколько функций времени от одной или не­ скольких переменных, комбинации функций времени и т.д.

2. Передатчик, преобразующий некоторым образом сообщения источ­ ника в сигналы, соответствующие условиям и способу передачи информа­ ции, т.е. это устройство, осуществляющее кодирование сообщений.

3...Канал связи - среда, соединяющая передатчик и приемник в данной системе связи.

4.Приемник, воспринимающий сигналы и восстанавливающий по ним исходное сообщение, выполняя при этом операцию, обратную по отношению к операции, выполняемой передатчиком, т.е. приемник осуществляет декодирование сигналов в сообщение.

5.Получатель информации - человек или техническая система, для которых предназначено передаваемое сообщение.

Взависимости от типа сообщения и способа его передачи системы связи разделяют из дискретные, непрерывные и смешанные. Матема­ тический анализ, исследование и оптимизация указанных компонен­ тов дискретных, непрерывных и смешанных систем связи являются основными задачами и целями созданной Шенноном статистической теории информации.

Н.Винер в своей знаменитой работе «Кибернетика, или управление

исвязь в животном и машине» в результате выявления сходства, общих черт процессов связи и управления в машинах, живых существах и об­ ществе так же определил количество информации на основе концепции выбора, уточнения неопределенной ситуации. Согласно точке зрения Н. Винера, восприятие, передача и хранение информации представляют собой прицессы связи, а ее переработка - процессы управления. Н. Винер толкует кибернетику как теорию организации, где процессы восприятия, передачи, хранения и преобразования информации нужны для сущест­ вования, выживания, устойчивости кибернетических систем, и считает, что информационный подход может быть использован для измерения ор­ ганизации, упорядоченности, сложности любых систем. Идеи Н.Винера

оприменимости статистического варианта теории информации к систем­ но-структурным исследованиям были впоследствии развиты У. Эшби, который полагает, что «теория информации является, по существу, мето­ дом получения некоторого знания о причинно-следственных отношениях

втех случаях, когда причин и следствий так много, что детальное познание каждой отдельной пары «причина-следствие» оказывается невозможным, но у нас остается еще последняя возможность считать, что данное коли­ чество причин достаточно для выявления того же количества следствий».

Специфику кибернетических систем У. Эшби видит помимо их сложности в свойстве непроницаемости, замкнутости для информации,

врезультате чего разнообразие внешних возмущений не может проник­ нуть в систему не будучи зарегистрированным. Отсюда делается вывод,

что кибернетическая система на определенном уровне организации пре­ вращается в информационную, т.е. в систему, способную к использова­ нию информации и вместе с тем к управлению.

Так как информация есть свойство материи, которое посредством той или иной формы отражения может быть передано от одного мате­ риального объекта к другому и запечатлено в его структуре, то количес­ тво информации как мера сложности, организации, упорядоченности материальных объектов может быть определено только при их взаимо­ действии между собой. Вне процесса взаимодействия количественная оценка информации невозможна, поскольку разнообразие состояний любого материального объекта, рассматриваемого как отдельный ис­ точник информации, при переходе от макро- к микроструктуре при­ нципиально неограничено. А если учесть принцип неопределенности Гейзенберга, устанавливающий предел различимости микросостояний объекта или физического переносчика сообщений, то количественная мера разнообразия (информационная емкость) структуры объекта ста­ новится величиной относительной, определяющей предельные условия взаимодействия материальных объектов. Таким образом, информация есть характеристика не сообщения, а соотношения между источником информации и ее потребителем, способ описания взаимодействия.

Статистическая теория информации изучает такие формы взаимо­ действия, которые хотя и зависят от энергетической стороны взаимодейс­ твия, но не определяются ею, так как информация независима от типа ма­ териального носителя и от физического способа передачи. Зависимость же информации от энергии состоит в том, что создание, переработка и хране­ ние информации невозможны без энергетических затрат. Обычно затраты энергии на получение одного бита информации пренебрежимо малы, но положение может измениться, например, при очень точных измерениях.

Определенная зависимость информации и энергии в неживой природе отнюдь не означаеттождественности информационного и энергетического подходов при исследовании. Действительно, величина энергии не зависит отразнообразия компонентов, составляющих некоторый объект,здесьдействует закон взаимосвязи массы и энергии, установленный А.Эйнштейном, который показывает зависимость энергии от массы, т.е. в какой то мере от числа элементов системы, но не от их разнообразия. Информация же зависит именно от разнообразия системы. Поэтому количество, информа­ ции может служить характеристикой не величины энергии, а мерой не­

однородности распределения энергии в пространстве и времени. Инфор­ мация существует постольку, поскольку существуют сами материальные объекты и, следовательно, созданные ими неоднородности.

В заключение следует отметить, что абстрактная модель системы связи, лежащая в основе статистической теории информации, хотя и не может адекватно описать многие процессы и явления действи­ тельности, нашла достаточно широкое применение и доказала свою плодотворность в различных приложениях и в первую очередь при ре­ шении технических задач коммуникаций и управления.

1.3. Э тапы обращения информации

Хотя роль информации может ограничиваться неопределенным эмоциональным воздействием на человека, в чисто технических (автоматических) и человеко-машинных (автоматизированных) системах она чаще всего используется для выработки управляю ­ щих воздействий. При обращении информации в системах можно выделить отдельные этапы. Так как материальным носителем ин­ формации является сигнал, то реально это будут этапы обращения и преобразования сигналов.

На этапе восприятия информации осуществляется целенаправ­ ленное извлечение и анализ информации о каком-либо объекте (про­ цессе), в результате чего формируется образ объекта, проводятся его опознание и оценка. При этом необходимо отделить интересующую нас в данном случае информацию от мешающей (шумов), что в ряде случаев связано со значительными трудностями. Простейшим видом восприятия является различение двух противоположных состояний: наличия («да») и отсутствия («нет»), более сложным - измерение.

На этапе подготовки информации проводятся такие операции, как нормализация, аналого-цифровое преобразование, шифрование. Иногда этот этап рассматривается как вспомогательный на этапе вос­ приятия. В результате восприятия и подготовки получается сигнал в форме, удобной для передачи или обработки.

На этапах передачи и хранения информация пересылается либо из одного места в другое, либо от одного момента времени до другого. Поскольку теоретические задачи, возникающие на этих этапах, близки