Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ИТ_тема_1.doc
Скачиваний:
14
Добавлен:
22.11.2019
Размер:
358.91 Кб
Скачать

I. Формы информационного обмена

1.1 Формально-логические принципы создания образов реального мира.

Существует два вида познания:

чувственное познание, т.е. впечатления представляющие образ действительности, выраженные в форме определенных суждений на естественном языке; логическое познание - совершается в области абстракции и включает анализ, синтез, истолкование, умозаключение, построенные на образах действительности. В результате логических познаний формируются гипотезы, устанавливаются отношения между явлениями и объектами. Основа чувственного и логического познания – это наблюдения и эксперименты. Если восприятие должно отобразить количественные отношения, то наблюдения называются измерением. Для того чтобы образ действительности был объективным должны быть выполнены определённые требования: для получения информации о действительности выделяются объекты. Каждый объект характеризуется какими-то характеристиками:

… …

Каждая характеристика может быть выражена определенным числом состояний. Т.о. в сфере реальности существует множество объектов{M}, множество характеристик или свойств {Q}, множество состояний {A}.

В сфере абстракции создается множество наименований объектов {M'}, множество величин отражающих характеристики {Q'}, множество значений {B}, которое является отображением множества состояний {A}.

Таким образом, образ действительности это такое отображение множества реальных состояний {A} на {B}, что {M} = {M'} и {Q} = {Q'}. Элемент b это образ элемента множества (а): b = Q(a). Для того чтобы b было образом (а), необходимо чтобы существовало обратное преобразование:

a* = Q-1(b)

причём выполняется условие:

а* = а, f(a*) = b.

Отображение Q называется эмпирической шкалой величины Q.

1.2 Сигналы в системах

Как только состояние одного объекта оказывается в соответствии с состояниями другого объекта, говорят, что один объект отражает другой, т. е. содержит информацию о другом объекте. Такое соответствие может устанавливаться в результате взаимодействия между объектами непосредственно или через совокупность промежуточных объектов. Понятие “сигнал” вводится для обозначения материального носителя информации и средства перемещения в пространстве и времени. В качестве сигналов используются не сами объекты, а их состояния. Условия, обеспечивающие установление и сохранение сигналов состояний называются кодом. Все внешние воздействия, которые нарушают или разрушают это соответствие называется помехами (шумами). В искусственных системах согласование организуется специально(криптография), а в природных системах происходит через естественный отбор различных вариантов. Для образования сигналов используются состояния объектов, которые достаточно устойчивы во времени или при перемещении в пространстве. С этой точки зрения сигналы делятся на 2 типа:

  1. Статические, которые образуются стабильными состояниями физических объектов;

  2. Динамические, которые формируются из состояний физических полей.

В физических полях изменение состояния порождает возмущение, которое во время распространения обладает определенной устойчивостью, поэтому динамические сигналы используются преимущественно для передачи информации, а статические для её хранения.

Сигналы систематизируют по принадлежности их к физическим процессам: механические, электромагнитные, тепловые, акустические, световые, процессы ионизирующих излучений. Сигналы классифицируют также по форме:

    • Сигналы непрерывные по времени и размеру параметра:

Аналоговый сигнал (analog signal) является непрерывной функцией непрерывного аргумента, т.е. определен для любого значения аргументов. Источниками аналоговых сигналов, как правило, являются физические процессы и явления, непрерывные в динамике своего развития во времени, в пространстве или по любой другой независимой переменной, при этом регистрируемый сигнал подобен (“аналогичен”) порождающему его процессу. Сама функция, так и ее аргумент, могут принимать любые значения в пределах некоторых интервалов y1 y  y2, t1 t  t2. Если интервалы значений сигнала или его независимых переменных не ограничиваются, то по умолчанию они принимаются равными от - до +. Множество возможных значений сигнала образует континуум - непрерывное пространство.

    • Непрерывный по времени и квантованный по параметрам:

Аналоговые сигналы могут быть квантованными по своим значениям, зарегистрированные соответствующей аппаратурой, которые принято называть дискретно-аналоговыми. Но выделять эти сигналы в отдельный тип не имеет смысла - они остаются аналоговыми кусочно-непрерывными сигналами с шагом квантования, который определяется допустимой погрешностью измерений.

    • Дискретизированный по времени и непрерывный по параметрам:

Дискретный сигнал (discrete signal) по своим значениям также является непрерывной функцией, но определенной только по дискретным значениям аргумента. По множеству своих значений он является конечным (счетным) и описывается дискретной последовательностью отсчетов (samples) y(nt), где y1 y  y2, t - интервал между отсчетами (интервал или шаг дискретизации, sample time), n = 0,1,2,...,N. Величина, обратная шагу дискретизации – f=1/t, называется частотой дискретизации (sampling frequency). Если дискретный сигнал получен дискретизацией аналогового сигнала, то он представляет собой последовательность отсчетов, значения которых в точности равны значениям исходного сигнала по координатам nt.

При t = const (равномерная дискретизация данных) дискретный сигнал можно описывать сокращенным обозначением y(n). В технической литературе в обозначениях дискретизированных функций иногда оставляют прежние индексы аргументов аналоговых функций, заключая последние в квадратные скобки - y[t]. При неравномерной дискретизации сигнала обозначения дискретных последовательностей (в текстовых описаниях) обычно заключаются в фигурные скобки - {s(ti)}, а значения отсчетов приводятся в виде таблиц с указанием значений координат ti. Для числовых последовательностей (равномерных и неравномерных) применяется и следующее числовое описание: s(ti) = {a1,a2, ..., aN}, t = t1,t2, ...,tN.

    • Дискретный по времени и квантованный по параметру:

Цифровой сигнал (digital signal) квантован по своим значениям и дискретен по аргументу. Он описывается квантованной решетчатой функцией yn = Qk[y(nt)], где Qk - функция квантования с числом уровней квантования k, при этом интервалы квантования могут быть как с равномерным распределением, так и с неравномерным, например - логарифмическим. Задается цифровой сигнал, как правило, в виде дискретного ряда (discrete series) числовых данных - числового массива по последовательным значениям аргумента при t = const, но в общем случае сигнал может задаваться и в виде таблицы для произвольных значений аргумента.

По существу, цифровой сигнал по своим значениям (отсчетам) является формализованной разновидностью дискретного сигнала при округлении отсчетов последнего на координатах nt до определенного количества цифр, В дискретных системах и в ЭВМ сигнал всегда представлен с точностью до определенного количества разрядов, а, следовательно, всегда является цифровым, С учетом этих факторов при описании цифровых сигналов функция квантования обычно опускается (подразумевается равномерной по умолчанию), а для описания сигналов используются правила описания дискретных сигналов. Что касается формы обращения цифровых сигналов в системах хранения, передачи и обработки, то, как правило, они представляет собой комбинации коротких одно- или двуполярных импульсов одинаковой амплитуды, которыми в двоичном коде с определенным количеством числовых разрядов кодируются числовые последовательности сигналов (массивов данных).

Единственная однозначная функция вещественного аргумента x(t) приобретает сигнальные свойства, когда она является одной из возможных реализаций ансамбля функций параметра t. Если ввести вероятностную меру на множестве этих реализаций, то мы получаем математическую модель называемую случайным процессом. Таким образом, наиболее полным описанием сигнала, как случайного процесса, является задание ансамбля сигналов, т. е. множество реализаций вместе с вероятностями их появления. Являясь свойством материи, таким же уникальным, как любое из вещественных и энергетических её свойств, информация рассматривается как измеряемая величина. В качестве меры информации принята вероятностная мера называемая энтропией. Энтропия полностью определяется плотностью вероятностей значений случайного процесса: