Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Бездудный, В. Г. Техника безопасности в шахтном строительстве

.pdf
Скачиваний:
6
Добавлен:
22.10.2023
Размер:
10.55 Mб
Скачать

зующей данного кода. Для нашего примера определяющая матрица

будет иметь вид

000 101

001 010

010 100

101000

010 001

100 010

Часто при анализе циклических кодов кодовые комбинации удоб­ но представлять в виде многочленов, у которых показатели степени х соответствуют номерам разрядов, а коэффициенты при х равны 0 или 1 в зависимости от того, стоит ли 0 или 1 в разряде кодовой комби­ нации, которую представляет данный многочлен. Так, комбинации кода нашего примера могут быть определены в виде многочленов:

000 101 да Ох5 +

0х* +

Ох3 +

1 * 4 - Ох1 +

1х° =

х2 +

1;

 

001 010 да Ох5 +

Ox4 -f

lx3 +

Ох2 + lx1 +

0х° =

х3 +

х;

 

010 100 да Ох5 +

1х4 +

0х3 4- 1х2 4- Ох1 +

0х° =

х4 -+• х2;

 

101 000 да 1х5 +

0х4 4- lx3 -f 0х2 4- Ох140х° =

х5 4- х3

и т. д.

Нетрудно заметить, что циклический сдвиг кодовой комбинации ана­ логичен умножению соответствующего многочлена на х:

(х2 4- 1)х х3 4- х да 001 010; (х3 4- х ) х —'х* 4- х2 да 010 100; (х4 4- х2) х = х5 + х3 да 101 000.

Рассмотрим еще одно свойство циклических кодов, которое поз­ волит нам вплотную подойти к пониманию корректирующих свойств этих кодов. Дело в том, что сложение по модулю 2 любых двух сосед­ них комбинаций циклического кода эквивалентно операции умножения многочлена, соответствующего комбинации первого слагаемого, на

многочлен х 4- 1, если

приведение подобных

членов осуществлять

по модулю 2:

 

 

„000101

х2 4 -0 + 1 да 000 101

® 001 010

* 4 -1

 

001111

х2 + 0 4 - 1

 

 

х3 4- 0 4- *

S001010

 

 

 

х3 + х2 + х 4- 1

: 001 111

Другими словами, существует принципиальная возможность по­ лучения любой кодовой комбинации циклического кода путем умно­ жения соответствующим образом подобранного образующего многочле­ на на некоторый другой многочлен. Однако так как операции умноже­ ния и деления по модулю 2 сводятся, в конце концов, к операции сложения (см. тему 7), то можно сказать, что любой многочлен цикли­

130

ческого кода

делится

на образующий

многочлен без

остатка т:

000101

1000 101

0010101000101

010 1001000101

101 000

1

000101

1

000101

1

000

 

000

 

000

 

Если же при делении комбинации циклического кода на образую­ щий многочлен будет получен остаток, то, значит, либо в коде произо-

Тоблица 25

Основные характеристики циклических кодэв, исправляющих одиночные и обнаруживающих все одиночные и двойные ошибки

п «и «к

< 3

1

2

< 7

. 4

3

« 7

4

3

<15

11

4

<15

11

4

<31

26

5

<31

26

5

<31

26

5

< 6 3

57

6

<63

57

6

<63

57

6

<127

120

7

<127

120

7

<127

120

7

 

 

 

 

 

 

Число

Образующий

Кодовое обозначение

остатков

от деле­

многочлен

образующего многочлена

ния на об­

 

 

 

 

 

 

разующий

 

 

 

 

 

 

многочлен

Х * + Х + 1

 

 

i

i

i

3

х3+ х+\

 

1 0

11

7

х3+ х 3+1

 

1 1 0

1

7

х*+ х3+ 1

1 1 0 0 1

15

J^-j-X+l

1 0

0

11

15

 

1 0 0 1 0 1

 

31

X6+X3+ l

1 0 1 0 0 1

 

31

x6+ x s+ l

1 0

0

1 1 1

1

31

1 1 0 0 0 0

63

x*+x3+ l

1 0 0 1 0 0 1

 

63

x *+ x + l

1 0 0 0 0 1 1

63

x^+x+l

1 0 0 0 0 0 1 1

 

127

x7+ x 3+ l

1 0 0 0 1 0 0 1

 

127

x7+ x H -l

1 0 0 1 0 0 0 1

 

127

шла ошибка (сбой), либо это комбинация какого-то другого кода (запре­ щенная комбинация), что для декодирующего устройства не имеет принципиальной разности. По остатку и обнаруживается наличие запрещенной комбинации, т. е. обнаруживается ошибка. Остатки от деления многочленов являются опознавателями ошибок циклических кодов.

Процедура нахождения остатков является, пожалуй, наиболее ответственной и трудоемкой в процессе построения циклического кода. Образующий многочлен циклического кода должен выбираться с таким учетом, чтобы он давал максимально возможное число остатков, с тем чтобы при минимальном числе проверочных разрядов обеспечить максимальное число информационных.

В настоящее время нет необходимости в поисках оптимальных соотношений параметров и образующих многочленов циклических кодов. Циклические коды хорошо изучены, и поэтому большинство их параметров уже известны и задаются таблицами. Так, соотношение между длиной кодовой комбинации п, количеством информационных1

1 Н а п о м и н а е м , ч т о д е л и т е л ь п о д п и с ы в а е т с я п о д д е л и м ы м т а к , ч т о б ы с о в п а д а л и с т а р ш и е р а з р я д ы .

5*

131

пи и контрольных пк символов заданы табл. 25 (сравните с табл. 21 для кода Хэмминга). Там же приведены и образующие многочлены для кодов различной длины.

Вернемся, однако, к процедуре нахождения остатков деления и построения полной образующей матрицы циклического кода. Предпо­ ложим, необходимо передать 10 информационных разрядов так, что­ бы при этом были обнаружены все одиночные и двойные ошибки. По табл. 25 выбираем ближайшее значение пи >- 10. Согласно табл. 25, таким значением будет пя = 11. При этом пк = 4, а п = 15. Там же выбираем образующий многочлен х* + х3 4- 1.

Полную образующую матрицу обычно строят из единичной транс­ понированной матрицы в канонической форме и дополнительной матри­ цы С„и;„к, соответствующей проверочным разрядам. Транспонирован­

ная матрица для пя = 11 имеет вид

0 0 0 0 0 0 0 0 0 0 1

0 0 0 0 0 0 0 0 0 1 0

0 0 0 0 0 0 0 0 1 0 0

1 0 0 0 0 0 0 0 0 0 0

Дополнительная матрица может быть построена по остаткам деления комбинации в виде единицы с нулями (последней строки единичной транспонированной матрицы) на выбранный образующий многочлен:

1000000000

111001

 

 

 

11001

 

 

 

 

1 0 0 1 0

1

0

0

I

11001

1

0

1

1

1 0 1 1 0

X

 

 

1

11001

 

 

1

0

1

1

1

1 1 1 1 0

1

1

1

0

11001

0 1 1 1 0 0

С П ;4 = 0 1 0 1

11001

1

0

1

0

0 1 0 1 0 0

1

1

0

1

11001

п

п

 

1

п о ю

и

и

X 1

0

1

1

0

11001

1 1 0 0

о б Т Т о о о

11001

0001

1 3 2

. f

Если в процессе деления после приписывания к остатку очередно­ го нуля получается число, у которого количество разрядов меньше, чем у делителя, то остаток получают путем приписывания нуля к преды­ дущему остатку справа. Полная образующая матрица для рассматри­ ваемого примера будет иметь вид

0 0 0 0 0 0 0 0 0 0 1 1 0 0 1

0 0 0 0 0 0 0 0 0 1 0 1 0 1 1

0 0 0 0 0 0 0 0 1 0 0 1 1 1 1

Cl5;ll = 0 0 0 0 0 0 0 1 0 0 0 0 1 1 1 0 0 0 0 0 0 1 0 0 0 0 1 1 I 0

0 0 0 0 0 1 0 0 0 0 0 0 1 0 1

0 0 0 0 1 0 0 0 0 0 0 1 0 1 0

0 0 0 1 0 0 0 0 0 0 0 1 1 0 1

0 0 1 0 0 0 0 0 0 0 0 0 0 1 1

0 1 0 0 0 0 0 0 0 0 0 0 1 1 0

1 0 0 0 0 0 0 0 0 0 0 1 1 0 0

В качестве неприводимого многочлена можно было бы взять, например, и х* + х 1. Тогда мы нашли бы несколько видоизменен­ ную определяющую матрицу, которая отличалась бы от полученной выше не самими остатками, а лишь их порядком:

0 0 0 0 0 0 0 0 0 0

1 0 0 1 1

0 0 0 0 0 0 0 0 0

1 0 0 1 1 0

0 0 0 0 0 0 0 0 1 0 0

1 1 0 0

0 0 0 0 0 0 0

1 0 0 0

1 0 1 1

0 0 0 0 0 0 1 0 0 0 0 0

1 0 1

0 0 0 0 0 1 0 0 0 0 0

1 0 1 0

0 0 0 0

1 0 0 0 0 0 0 0

1 1 1

0 0 0 1 0 0 0 0 0 0 0 1 1 1 0

0 0 1 0 0 0 0 0 0 0 0

1 1 1 1

0 1 0 0 0 0 0 0 0 0 0

1 1 0

1

1 0 0 0 0 0 0 0 0 0 0

1 0 0

1

После того как построены полные образующие матрицы, не пред­ ставляет собой труда выбрать любую из разрешенных комбинаций данного кода. Общее число комбинаций для кода с 11 информацион­ ными разрядами равно 211.

133

В качестве примера выпишем две кодовые комбинации, имеющие единицы, первая в 1, 2, 7, 9, вторая в 3, 5, 6, 10 и 11 информационных разрядах. Для этого достаточно сложить по модулю 2 строки обра­ зующей матрицы с теми же порядковыми номерами, считая снизу вверх:

1 0 0 0 0 0 0 0 0 0 0 1 0 0 1 0 1 0 0 0 0 0 Q 0 0 0 1 1 0 1-

@ 0 0 0 0 0 0 1 0 0 0 0 0 1 0 1

0 0 0 0 0 0 0 0 1 0 0 1

1 0 0

1 1 0 0 0 0 1 0 Г 0 0 1 1 0 1

0 0 1 0 0 0 0 0 0 0 0 1 1 1 1

0 0 0 0 1 0 0 0 0 0 0 0 1 1 1 @ 0 0 0 0 0 1 0 0 0 0 0 1 0 1 0

0 0 0 0 0 0 0 0 0 1 0 0 1

1 0

0 0 0 0 0 0 0 0 0 0 1 0 0 1 1

0 0 1 0 1

1 0 0 0 1 1 0 1 1

1

Код, построенный при помощи матриц С+ц и С\5;ц, может обна­ руживать все одиночные и все двукратные ошибки, а также пачки

ошибок длиной

в четыре разряда. Этот код может обнаруживать

 

 

 

пачки ошибок в пять разрядов (необнару-

 

 

 

живаемыми остаются лишь х/8 от общего

 

 

 

числа пачек ошибок) и пачки 'ошибок с чис­

 

 

 

лом разрядов п > 5 (необнаруженные при

 

 

 

этом остаются лишь V16 общего числа пачек

 

 

 

ошибок).

 

 

 

Как мы уже говорили, кодирующие и

 

 

 

декодирующие устройства циклических кодов

Рис. 30.

Регистр сдвига с выгодно отличаются своей простотой. Как в

обратной

связью

через

кодирующем, так и в декодирующем устрой­

сумматор.

 

 

стве основными элементами являются регист­

 

 

 

ры сдвига с обратной связью через сумматор по модулю 2. На рис. 30 представлена схема такого регистра сдвига, на которой Тг Тп — ячейки И в случае тиратронного регистра сдвига

либо триггерные ячейки на полупроводниках, лампах и т.

д.; ^ —

Кп .— ключи, подключающие сумматор к определенным

ячейкам

регистра. Выход сумматора заведен на вход регистра сдвига. Поэтому в первом каскаде регистра всегда записан результат сложения по модулю 2 (естественно, после-того, как на сумматоре появится первый результат сложения).

Предположим, в регистре рис. 31, который является частным

случаем регистра рис. 30,

записана

комбинация

111. После перво­

го тактового импульса из

ячеек Т2

и Т3 сигналы

поступят на сум­

матор, с выхода которого

результат

сложения 1 + 1 = 0 запишется

134

в ячейке Tlt 1 из 7\ продвинется в Тг, а 1 из Т2 — в Т3. Таким образом, после первого такта в регистре будет записана комбинация 011. После второго тактового импульса на сумматор опять поступят единицы

из

ячеек Т2 и Т3. В

ячейке Тг запишется 0, ранее записанный в

ячей­

ке

Т10 продвинется

в Ts. После второго такта в регистре будет

запи­

сана комбинация 001. Нетрудно проследить, что

при последующих

сдвигах

в регистре будут вырабатываться все

не­

 

нулевые

комбинации трехзначного

двоичного

 

кода: 111, 011, 001, 100, 010, 101, 110.

За

семь

 

тактов с выхода первой ячейки снимется после­

 

довательность 1001011, с выхода второй ячейки мо­

 

жет быть снята последовательность 1100101, кото­

Рис. 31. Регистр, в

рая является циклической перестановкой первой

котором при каж­

последовательности.

 

 

дом сдвиге записано

Если к этой схеме добавить еще один сумма­

одно из ненулевых

трехразрядных дво­

тор по модулю 2 и складывать последовательнос­

ичных чисел.

ти, получаемые с выхода любых двух

соседних

 

ячеек, то будут получаться новые последовательности, которые, в свою очередь, будут циклическими перестановками этих комбинаций:

1 0

0

1 0

1 1

 

аь 1

1 0

0

1 0

1

 

0

1

0

1

1

1

0

т. е. с выхода могут быть получены все возможные комбинации цикли­ ческого кода.

Декодирующие устройства для рассмотренных кодов отличаются от схем кодирующих устройств лишь наличием буферного регистра для хранения принятого сообщения на время проведения операции деления. Если в принятой комбинации отсутствуют искажения, ос­ татка от деления не будет, и информация с буферного регистра счи­ тывается в дешифратор сообщения. В случае обнаружения ошибки (наличие остатка при делении) информация в буферном регистре стирается и посылается запрос на повторную передачу х.

Для исправления ошибки необходимо иметь еще дополнительные данные, указывающие, в каком разряде кода произошел сбой. Эти данные также получаются путем деления на образующий многочлен. Если ошибка находится в проверочном разряде, то одночлен одиноч­ ной ошибки имеет степень меньшую, чем степень образующего много­ члена, и совпадает с остатком от деления. Номер разряда остатка будет соответствовать номеру искаженного проверочного разряда. Если искажен информационный разряд, то одночлен ошибки имеет степень не меньшую, чем образующий многочлен. Каждому номеру искаженного информационного разряда будет соответствовать свой1

1 Для более подробного изучения вопросов декодирования циклических кодов рекомендуем обратиться к работе [15].

135

остаток от деления на образующий многочлен. Так как каждой ошибке соответствует свой остаток от деления, то в дополнительной адресации ошибки уже нет необходимости х.

Циклические коды достоверно обнаруживают пакеты ошибок длиной, равной числу проверочных разрядов. Лучшими являются коды Боуза-Чоудхури [35]. К циклическим кодам относятся также коды Файера, Абрамсона [51 ], Рида — Соломона, Миласа — Абрамсо­ на. Широкое распространение циклических кодов, кроме возможности корректировать пакеты ошибок и удобства построения кодирующей и декодирующей аппаратуры, объясняется еще и тем, что для их построения достаточно иметь элементы, производящие выбор из двух

возможных

состояний, т. е. элементы, наиболее распространенные

в современной дискретной технике.

Выводы:

1. Увеличение надежности передачи информации может

быть осуществлено за счет увеличения избыточности передаваемых сообщений и времени передачи элементарных символов, повторения целых сообщений, повышения мощности передачи сигнала, а также за счет параллельной передачи сообщений по одному и тому же каналу связи (одновременная посылка сообщений с различными качественными признаками) либо за счет расширения полосы частот при передаче радиосигналов.

2.Увеличение надежности передачи обычно ведет к удорожанию аппаратуры. При выдаче технического задания на разработку системы передачи информации необходимо экономически обосновать целесооб­ разность требуемой точности передачи информации.

3.При механизации и автоматизации процессов обработки инфор­ мации, в частности при использовании вычислительных машин, досто­ верность передаваемой и обрабатываемой информации может быть значительно увеличена за счет применения корректирующих кодов. Но это может быть осуществлено за счет усложнения аппаратуры

иудлинения времени передачи информации, так как коды без избыточ­ ности не могут обнаруживать либо исправлять ошибки в принятых сообщениях.

Задачи к теме 13

1. Определить кодовое расстояние, необходимое для обнаружения двух оди­ ночных ошибок.

'2. Определить кодовое расстояние для кода: обнаруживающего три и исправляющего две ошибки; обнаруживающего пять и исправляющего три ошибки.

3.Построить геометрическую модель трехэлементного кода. Определить ко­ ды, обнаруживающие ошибку. Определить коды, исправляющие ошибку.

4. Даны коды 0001, 1110, 1011. Как в них обнаружить одну ошибку?1

1 Схемы

для реализации циклических кодов, исправляющих ошибки, описаны

в работе

[35].

136

5.Какое количество ошибок может быть обнаружено и исправлено при помо­

щи пятизначного, шестизначного и 11-значного кодов?

6.Построить код Хэмминга для обнаружения и исправления одиночной ошиб­ ки трех- и пятизначного бинарного кодов.

7.Построить код Хэмминга для обнаружения двойной ошибки пятизначного бинарного кода.

8.Какой вид имеют комбинации кода Хэмминга для передачи сообщений

1101 и 1011?

9.Построить производящую матрицу циклического кода длиной п — 7 и расстоянием d = 3.

10.Построить дополнительную матрицу по остаткам от деления на много­ член 1101.

11.Какой вид будет иметь производящая матрица циклического кода, если производящий полином имеет вид 1011?

12.Построить произвольный циклический код для передачи девяти информа­ ционных разрядов.

13.Построить систематический код для передачи 32 букв русского алфавита. Предусмотреть коррекцию одиночной ошибки.

14.Построить максимальное число комбинаций для кодов с постоянным весом при длительности кодовой комбинации п — 5 и постоянном соотношении нулей и единиц 3 к 2, а также при п = 7 и соотношении 4 : 3.

КОДИРОВАНИЕ ЭКОНОМИЧЕСКОЙ ИНФОРМАЦИИ

Различие в толковании термина информация в теории информации

иэкономике вызывает определенные затруднения в количественной

икачественной оценке информации, вносит свою специфику в принци­ пы построения экономических кодов. В чем же природа этого различия?

Характерной особенностью технического прогресса XX века является вторжение точных наук в науки, испокон веков считавшиеся гуманитарными. Так, кибернетика захватила прочные позиции и в лингвистике, и в медицине, и в биологии, и в экономике. Более того, в настоящее время формализации и автоматизации процессов управле­ ния промышленностью уделяется настолько большое внимание, что внедрение вычислительной техники стало чуть ли не обязательным условием прогресса любой современной производственной либо управ­ ленческой организации.

Вместе с новыми методами организации процессов управления внедрялись и новые термины. Но экономисты, которые всегда пользо­ вались терминологией гуманитарных наук, оказались неподготовлен­ ными к внедрению строгих математических понятий, что привело к фривольному толкованию многих терминов и, следовательно, к неод­ нозначности оценки определенных явлений.

Особенно хорошо это видно при употреблении такого всеобъ­ емлющего и трудноопределяемого понятия, как информация. Что

137

такое информация — сигналы? символы? сообщения? данные? пока­ затели?

Известно, что электрический ток есть упорядоченное движение электронов; единица измерения электрического тока — ампер. В свое время понятие электрический ток было не менее неопределенным, чем ныне понятие информация. Однако эта неопределенность немедлен­ но исчезла после того, как была введена единица измерения тока. Точно так же понятие информация будет до тех пор всеобъемлющим и, следовательно неопределенным, пока не будет введена единица измере­ ния информации, пригодная на все случаи употребления этого термина. Понятие информация, а также методы определения ее количества автоматически были заимствованы экономистами из теорий информа­ ции. Но ни термин информация, ни методы определения ее количества

втой трактовке, в которой они даются в теории информации, не могут быть перенесены в экономику без ряда существенных оговорок.

Прежде всего, теория информации — это наука об оптимальном использовании алфавитов, из которых составлены сообщения, а не об информации, которая передается этими сообщениями. Одной из глав­ ных (если не самой главной) задач теории информации и кодирования является определение избыточности первичных сообщений (алфавитов) и построение оптимальных кодов с целью увеличения эффективности передачи. . Теория информации игнорирует ценность и срочность информации. Более того, многие закономерности теории информации,

вчастности следствие фундаментальной теоремы Шеннона о целесо­ образности кодирования крупными блоками, справедливы лишь при допущении, что на передающем конце канала связи сообщений всегда столько много, что они стоят в непрерывной очереди и ждут, когда их оптимально закодируют и передадут.

Количество принятой информации зависит от взаимозависимости отдельных символов в сообщении и от частоты появления данного сим­ вола относительно других символов используемого алфавита и опреде­ ляется равенствами:

для равновероятных и взаимозависимых символов

 

/

= п log2 т;

(99)

для неравновероятных и взаимонезависимых символов

 

 

т

(100)

 

l = — n ' Z p i \og^pi\

 

 

г=1

 

для неравновероятных и взаимозависимых символов

I" = — п 2 2 (Рс) Р 070 log2 р (/70,

 

;

/

 

где п — количество

элементов

сообщения;

 

т — количество

символов

в алфавите;

г-го символа алфавита;

р { — вероятность появления в сообщении

Р 070 — условная вероятность появления /-го символа в зависимости от появления г-го символа.

138

Возникает вопрос, можно ли методами теории информации из­ мерять количество экономической информации. Для того чтобы ответить на этот вопрос, нужно, прежде всего, определить, что имеют

ввиду, когда говорят о количестве экономической информации. Дело

втом, что в экономике интересуются не статистическими свойствами алфавита, из которого составлено сообщение, а содержанием послед­ него. Сводка об отгрузке дефицитных материалов заводом-поставщи- ком заводу-потребителю будет представлять большую ценность для

начальника отдела снабжения завода-потребителя и никакой ценнос­ ти — для работника медпункта. Та же сводка не будет представлять ценности и для снабженца, если она поступила после того, как на завод уже прибыли те материалы, о которых говорилось в сводке. Другими словами, количество экономической информации зависит от того, что, когда, кому передано.

Таким образом, количество экономической информации зависит от качественных характеристик сообщения. Во всех случаях, когда при обработке информации качественные характеристики не играют роли, речь идет не о количестве информации, а о ее объеме, точнее — об объеме данных.

Объем данных обычно определяют подсчетом элементарных знаков:

N = 2

".

i,i,k

где i — количество самостоятельных подсистем;

/ — количество разновидностей

документов в подсистеме;

k— количество документо-строк в одном документе;

п— количество элементарных символов в строке (для кодирования

не имеет значения, алфавитные это знаки или цифровые). С точки зрения теории информации количество информации может совпасть с ее объемом только в случае кодирования равновероятного алфавита кодами одинаковой длины, лишенными какой-либо избы­ точности. В этом случае энтропия источника сообщений равна длине

кодового слова.

Разница между понятиями количество информации и объем ин­

формации хорошо видна хотя бы из того,

что

объем информации

не зависит от числа повторений одной и той

же

информации одному

и тому же лицу, а количество информации убывает как двоичный лога­ рифм от числа повторений:

/ = — k\og2n,

где п — число повторений; k — коэффициент, зависящий от характера информации.

Означает ли выщесказанное, что теория информации не может быть использована при исследовании в экономике? Отнюдь нет. Неза­ висимо от того, является ли информация экономической, медицинской

139

Соседние файлы в папке книги из ГПНТБ