Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Конспект лекций-3.doc
Скачиваний:
7
Добавлен:
01.04.2025
Размер:
5.57 Mб
Скачать

1.3. Передача сообщений

1.3. Передача сообщений 1

1.3.1. Общие сведения 1

1.3.2. Кодирование 11

Процедуры обмена информации. 22

1.3.3. Сигналы и их характеристики 32

1.3.4. Модуляция 39

1.3.6. Пропускная способность линии связи 49

1.3.5. Телефонные линии связи 53

1.3.6. Интерфейсы компьютерных систем 57

ПЕРЕЧЕНЬ ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ 57

ССЫЛКИ 59

Децибел 59

1.3.1. Общие сведения

Схема передачи. При автоматизации систем электроснабжения приходится строить систему при значительном удалении отдельных компонентов друг от друга. В связи с этим необходимо достаточно внимания уделять проблеме передачи информации через каналы связи. Это касается в первую очередь систем оперативного управления устройствами электроснабжения, для чего организуется диспетчерский пункт, связанный через каналы связи с несколькими контролируемыми пунктами. На каждом из контролируемых пунктов находится несколько объектов управления. В большинстве случаев организуется двухсторонний обмен информацией, но известны системы и с односторонним потоком информации, например радиоуправление освещением [6]. Схема передачи сообщения приведена на рис. 52.

Рис. 52. Схема передачи информации в системе телемеханики

Наиболее уязвимым звеном передачи информации является линия связи, уровень помех, воздействующих на нее трудно изменить. Помеха в общем случае может исказить сигнал, в результате приемник информации получит искаженное сообщение ’(t)≠(t). Дальнейшее изложение выполнено согласно [7]. Различают следующие виды помех: аддитивная и мультипликативная .

Терминология. Дадим несколько определений. Заметим, что приведенные ниже понятия могут иметь и другие определения, отличающиеся рассматриваемыми аспектами.

Информация – совокупность сведений о каком-либо событии, явлении, процессе, которая характеризует их с точки зрения тех или иных параметров, представляющих интерес для пользователя

Сообщение – совокупность знаков содержащих информацию.

Сигнал – физический процесс, отображающий (несущий) передаваемое сообщение. Формируется путем изменения какого-либо параметра физического процесса по закону сообщения.

Канал связи – совокупность устройств, обеспечивающих передачу сигнала от некой точки А до точки Б (см. рис. 52).

Линия связи – среда, используемая для передачи сигнала от передатчика к приёмнику.

Помехоустойчивость – способность системы противодействовать воздействию помехи.

Кодирование – отождествление передаваемых сообщений с набором букв или цифр. Каждое сообщение оказывается представимым в виде цифрового слова, или некоторого числа (кодовой комбинации).

Код правило, по которому записываются различные кодовые слова или числа.

Мера информации. Несмотря на широкое распространение этого термина, понятие информации является одним из самых дискуссионных в науке. Шеннон рассматривает информацию как снятую неопределенность наших знаний о чем-то. “Классическая” шенноновская теория информации позволяет измерять информацию текстов и сообщений, исследовать и разрабатывать приемы ее кодирования в передатчике и декодирования в приемнике, измерять пропускную способность канала связи между ними, вычислять уровень шума в канале и минимизировать его воздействия. Винер, "отец" кибернетики дал такое определение: «Информация - это обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему и приспособления к нему наших чувств». Предметом большинства теоретико-информационных работ была лишь “микроинформация” - информация, которую система не запоминает и которая является мерой разнообразия возможных микросостояний, определяющих данное макросостояние системы. Развитие работ А.Н. Колмогорова привели к определениям понятия алгоритмического количества информации. Алгоритмическое количество информации рассматривалось как минимальная длина программы (сложность), позволяющая однозначно преобразовывать одно множество в другое. Макроинформация принципиально отличается от упомянутой выше микроинформации именно тем, что системы ее запоминают. В биологии генетические тексты рассматриваются не как непосредственное зашифрованное описание порождаемых ими структур, а как описания алгоритмов их пространственно-временной реализации, или даже алгоритмы построения автоматов, реализующих эти алгоритмы. Информация по Г.Кастлеру представляет собой «запоминание случайного выбора» - изначально случайный, а затем запомненный выбор одного или нескольких осуществленных вариантов из всей совокупности возможных. Информация – это язык мира, понимаемого как живое целое. В информатике термин "информация" является первичным, неопределяемым.

Переводы статей основоположников теории информации (Хартли Р., Шеннона К. и др.) можно просмотреть здесь.

Понятие энтропия, широко используемое в теории информации рассмотрено здесь.

Единица измерения информации называется "бит". Ее определение звучит так: «Сообщение, уменьшающее неопределенность знаний человека в два раза, несет для него 1 бит информации». (Неопределенность знаний о некотором событии - это количество возможных результатов события).

Для передачи сообщения его часто преобразуют в дискретные сигналы. Последние можно рассматривать состоящими из n элементарных (единичных) сигналов. Единичный сигнал занимает, как правило, одну временную позицию. Каждый элементарный сигнал может иметь K различных значений. Величина K зависит от способов модуляции (очень часто К=2). Между числом сообщений М и n дискретными сигналами должно выполнять соотношение .

Ральф Хартли в 1928 году (Hartley R.V.L. Transmission of information ) предложил следующую меру информации учитывающие физические, а не физиологические соображения

I=n· logaK = logaM

Из формулы следует, что неопределенность в системе тем выше, чем больше M . Основание a логарифма можно выбрать произвольно. Наиболее часто а=2. В этом случае единицей информации считается 1 бит. Если а=10 то – единица назвается Хартли, если а=е, то 1 нат. Мера Хартли справедлива при следующих допущениях: не рассматривается смысловая ценность информации, все М сообщений равновероятны и между элементарными сигналами отсутствует корреляция. Вероятность появления сообщения p=1/M.

Шеннон (1916-2001) в своих работах 1948-49 годов определил количество информации через энтропию - величину, известную в термодинамике и статистической физике как мера разупорядоченности системы, а за единицу информации принял то, что впоследствии окрестили "битом", то есть выбор одного из двух равновероятных вариантов. Шеннон получил формулу определения количества информации источника для случая, когда появление любого i-го сообщения из М возможных может иметь различную вероятность pi , при этом pi=1 (i=1, 2, …, M).

Мерой информации сигнала состоящего из n элементов, каждый из которых может принимать одно из К значений (при вероятности появления символа j из К возможных - pj) будет

НИ и НС – называются энтропией источника и энтропией элементарного сигнала (т.е. среднее количество информации источника и элементарного сигнала).

Так, если у нас источник может иметь одно из равновероятных 16 состояний, и мы получили информацию о его состоянии (I = -16*1/16*log2(1/16) = log2(16) = 4), т.е. мы получили 4 бита информации. Если же источник мог иметь одно из двух состояний, одно с вероятностью 1/2 другое - 1/2, то энтропия источника равна 1. Для передачи этой информации нам потребуются разные сигналы. В первом случае либо один элемент с 16-ю состояниями или 4 элемента, каждый из которых имеет два состояния. Для второго достаточно одного элемента сигнала, который может принимать одно из двух состояний.

Можно показать, что мера Хартли соответствует максимальной возможной энтропии источника информации (при равновероятных сообщениях). Пример. Пусть имеется два источника информации с четырьмя возможными состояниями M=4 (т.е. каждый источник может выдать одно из четырех сообщений)

Источник_1

Сообщение

i

1

2

3

4

Вероятность

pi

1/4

1/4

1/4

1/4

Логарифм

log2 pj

-2

-2

-2

-2

-

pj ·log2 pj

-1/2

-1/2

-1/2

-1/2

Энтропия (по Шеннону) составит

I1 = –(1/4·log2(1/4)+ 1/4·log2(1/4)+ 1/4·log2(1/4)+ 1/4·log2(1/4)) = 2

Мера информации по Хартли I1 = log2(4) = 2

Источник_2

Сообщение

i

1

2

3

4

Вероятность

pi

3/4

1/12

1/12

1/12

Логарифм

log2 pj

-0.41504

-3.58496

-3.58496

-3.58496

-

pj ·log2 pj

-0.31128

-0.29875

-0.29875

-0.29875

Энтропия (по Шеннону) составит

I2 = –(3/4·log2(3/4)+ 1/12·log2(1/12)+ 1/12·log2(1/12)+ 1/12·log2(1/12))= 1.20752

Для передачи информации от источника с помощью сигнала необходимо выполнить соотношение Ни ≤ nHc. Если сигнал может обеспечить передачу с m информационными элементами, а имеет n>m, то сигнал обладает избыточностью R

R = (n-m) / n = 1 - n/m.

При передаче по каналу связи без помех избыточность не требуется. Если же канал имеет помехи, то избыточность используют для повышения помехоустойчивости передачи.

Наличие человека в системе учитывается при выборе параметров системы телемеханики. Возможности человека по восприятию информации уступает возможностям технических средств. Количество информации, которое нервная система человека способна передать в мозг при чтении текстов составляет примерно 16 бит/с, одновременно в сознании человек может удержать 160 бит. Время реакции на акустические и оптические сигналы находится в пределах 140-250 мс. Закон Меркаля (1885 г.) оценивает время реакции человека (Т, мс) на выполнение задания выбора из N объектов по выражению Т=200+180 * log2(N). При высокой способности человека к различению (1500 оттенков яркости, 330 уровней громкости, 2300 высот звука) одновременно он может различить не более 5-7 значений. Поэтому многие решения, принимаемые при создании систем телемеханики, учитывают указанные возможности человека.

Объем сигнала. В теории передачи информации часто используется трехмерное представление сигнала и вводят понятие объем сигнала Vc. Параметры сигнала отображают в следующих координатах: длительность сигнала (Tc), динамический диапазон (Dc) и ширина частотного спектра (ΔFc).

Динамический диапазон принято измерять в относительных логарифмических величинах. При измерении отношения мощностей сигналов динамический диапазон определяется по максимальной и минимальной мощности сигнала:

Часто используют единицу измерения децибел.

.

Примеры динамических диапазонов: лектор - 25-35 дБ, капелла - 70-90 дБ.

Ширина частотного спектра, например, для речи человека составляет 20 кГц (20-20000 Гц), из которого по телефонной линии принято передавать ширину 3,1 кГц (от 300 до 3400 Гц).

Аналогично вводится понятие объема для канала связи, вводя следующие координаты: длительность передачи (ТК), – динамический диапазон канала (DК), – полоса пропускания (ΔFК). Телефонные каналы имеют полосу пропускания 3,1 кГц (от 300 до 3400 Гц). Динамический диапазон канала определяется через отношение максимальной мощности канала Рмах к мощности помехи Рmin

Vk = Tk·Fk·Dk

Для передачи сигнала по каналу необходимо выполнение условие Vс ≤Vк. При этом возможно потребуется изменить параметры сигнала, чтобы обеспечивалось и достаточное условие: ΔFС ≤ΔFК ; DС ≤DК ; ТС ≤ТК.

Объем сигнала и количество информации. Пусть сигнал имеет n элементарных символов с основанием кода K. В этом случае количество информации в сигнале I=n·log2K, а объем сигнала

VС = TС·FС·DС = TС·FС·log2(Pc/Pп)

где Pc – мощность сигнал, Pп - мощность помехи. Для сигнала длительностью Тс количество элементов сигнала n=Тс/t, где t – длительность элементарного сигнала. По теореме Котельникова спектр одиночного импульса может быть определен FС = 1/t. Получаем

Iс=n·log2K= Тс/t log2K= ТсFС log2K.

Обычно К=U/U, где U – порог чувствительности, в случае если уровень помех не превышает U/2. В канале с помехами

PпU2п; PсU2с; К=Uс/Uпк· Pс/ Pп,

где ак =const и зависит от характеристик помех и способа выбора U.

Iс = ТсFС log2к· Pс/ Pп) = ТсFС log2 (Pс/ Pп) + ТсFС log2 ак=

Vс + ТсFС log2 ак.

Таким образом, в сигнале содержится полезная составляющая Vc и дополнительная информация, отражающая способ выделения градаций сигнала.

Пропускная способность каналов связи. Для канала связи без помех информация может передаваться неизбыточным сигналом, бит/с

с = Fc·log2K,

где K=Umax/u – число возможных градаций сигнала,

Umax – максимальное значение сигнала,

u – чувствительность приемника.

Для канала с помехой скорость достоверной передачи получена Шенноном

с = Fc·log2(1+Pc/Pп),

где Pc/Pп –отношение мощности сигнала к мощности помехи.

Помехоустойчивость. Помехоустойчивость оценивается вероятностью p появления помехи в приемнике. Примеры помехоустойчивости различных систем:

система передачи данных (СПД ) – р=10-8 – 10-9

проводной телеграф – р=10-3 – 10-4.

телеграф (радиоканал) – р=10-2 – 10-3.

Системы телемеханики должны обеспечить высокую достоверность передаваемой информации в условиях недостаточной помехоустойчивости каналов связи. Требования к достоверности передачи информации изложены в [9]. Для обеспечения необходимой достоверности в сообщение кроме информационной составляющей приходится добавлять служебные элементы, позволяющие приемной стороне обнаруживать влияние помех.

Почти всегда в канале связи действует помеха. Существует много источников шума, один из главных тепловые шумы (Pп = kQB, где Q – температура в градусах Кельвина, B – полоса пропускания приемника, а k – постоянная Больцмана). На практике существенно большее влияние оказывают различного рода наводки.

Наиболее важным при передаче информации является обеспечение ее достоверности. К критериям оценки достоверности относятся следующие вероятности:

вероятность правильного приема РПР;

вероятность ложного приема РЛ ПР;

вероятность защитного отказа (обнаружения искаженной информации) РЗО (обычно около 10-7);

вероятность потери сообщения РПОТ

вероятность подделки сообщения РПОД (не более одного сообщения в год).

Вероятность потери сообщения не является аналогом вероятности защитного отказа. Защитный отказ сопровождается сигналом о том, что была принята искаженная информация. В этом случае можно попытаться передать сообщение еще раз. В случае потери информации на приемной стороне ничего не будет принято. Такой случай имеет место, например, при искажении синхросигнала. В некоторых случаях системы работают в условиях постоянного поддержания синхронной работы источника и приемника. Однако большинство систем работают в режиме ожидания. Сообщение в случае, когда синхросигнал ожидается, будет безвозвратно потеряно.

Для оценки достоверности информации можно рассматривать все рассмотренные критерии, но Международный электротехнический комитет (МЭК) рекомендует выбирать два или даже один из них: РЛ ПР и РПОД. В зависимости от величины РЛ ПР по рекомендации МЭК все телемеханические каналы связи разделяются по достоверности на три класса: I1, I2, I3. Вероятность ложного приема PЛ.ПР рассчитывается для двоичного симметричного канала связи с учетом вероятности искажения одного бита в канале связи p0 = 10 -4. Данное значение является характерным для канала связи среднего качества. Следующая таблица иллюстрирует достоверность систем различных классов и минимальное кодовое расстояние, которое они обеспечивают.