Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Бездудный, В. Г. Техника безопасности в шахтном строительстве

.pdf
Скачиваний:
5
Добавлен:
22.10.2023
Размер:
10.55 Mб
Скачать

шджшпщгЛооё

а

■ 5

Рис. 20. Функциональные схемы шифратора (а) и дешифратора (б) частотных кодов.

В типовом режиме шифратор вырабатывает посылки длительностью 20 мсек с частотами заполнения 1666, 1250, 833 и 416 гц. Для их полу­ чения путем деления частоты на целые числа требуется задающий гене­ ратор с частотой 10 кгц, так как выходные частоты снимаются в виде миандра, который получается на выходном триггере. Поэтому на по­ следний должны подаваться частоты 3333, 2500, 1666 и 833 гц, что не­ желательно, так как частота работы одного модуля достигает 3333 гц, а чем она ближе к критической частоте работы тиратрона, тем более жесткие требования предъявляются к стабильности питающих напряже­ ний. В шифраторе задающий генератор импульсов ГИ (рис. 20, а) работает на частоте 5000 гц. Сдвинутые по фазе на 180° выходные им­ пульсы с ГИ поступают на формирователи остроконечных импульсов Фх и Ф2, а с них — на два делителя частоты на 3 (ячейки Л й—Лп ), кото­ рые имеют общую нагрузку и соединены так, что тиратрон одного де­ лителя готовит к срабатыванию тиратрон другого. В результате оба тиратрона работают в кольце через один, причем частота каждого из них равна 1666 гц.

Частота 3333 гц получается на формирователе, собранном на ячей­ ках Л4 и Лъ. На импульсные входы этих ячеек (клеммы 4), сдвинутые по фазе сигналы частотой 1666 гц поступают с делителей на 3, и с об­ щего катодного сопротивления снимается сумма этих частот — час­ тота 3333 гц. Частота 2500 гц получается путем деления частоты зада­ ющего генератора на 2 (ячейки Лх и Л 2). Эта частота, как и все часто­ ты, сформированные за счет деления частоты ГИ, поступает на импульсные входы (клеммы 4) схем совпадения (ячейки Л 3, Л 12, Л 21 и Л 28), построенных по схеме ждущего релаксатора. Все катоды этих схем совпадения имеют общее сопротивление 20 ком.

Такое подсоединение позволило осуществить операцию ИЛИ на четыре входа без затраты радиотехнических деталей. Эта операция получается автоматически за счет совмещения на общем катодном со­ противлении сигналов с четырех схем с автономной логикой работы (схем совпадения). Схемы совпадения управляются сигналами с рас­ пределителя (ячейки Л 23— Л27), который собран по кольцевой схеме с общей анодной нагрузкой. Поэтому разрешающий сигнал с распреде­ лителя может присутствовать лишь на одной ячейке.

Период работы кольца задается генератором (ячейка Л1в), который поджигает тиратрон ячейки Л15 и тем самым готовит к срабатыванию первый тиратрон распределителя (ячейка Л 23). Продвигающие импуль­

сы на распределитель поступают

с генератора тактовых

импульсов

(ячейка Л 22), период работы которого определяется

/?С-цепочкой (со­

противление между клеммами 2 и

8, конденсатор

между

клеммами

8 и 6).

 

 

 

Порядок частот в коде зависит от. положения кодонабирателя. Во избежание ложных срабатываний шифраторов от вторых и третьих гармоник передаваемых частот делители частоты следует подбирать с коэффициентами деления, соответствующими ряду простых чисел.

61

Схема дешифратора изображена на рис., 20, б. Входом дешифратора являются фильтры, подсоединенные к выходу приемника радиосиг­ налов. Фильтры с тиратронами стыкуются при помощи специальных буферных каскадов. £Ах—5/С4, которые представляют собой со­ единенные последовательно детектор, интегратор, усилитель и порого­ вый элемент [44]. Остальные узлы дешифратора построены на основе ячейки И. Сигналы с буферных каскадов поступают на формирователи остроконечных импульсов Ф1—Ф4, собранные по схеме ждущих релаксаторов, а затем на формирователи потенциальных сигналов П1— Я4 — обычные ячейки И, у которых клеммы 4 и 8 соединены между собой. Аноды ячеек Я 4—Я 4 имеют общую анодную нагрузку, и в данный момент времени гореть может только тиратрон одной из ячеек. Это сде­ лано для того, чтобы с приходом одной частоты снимался сигнал под­ готовки с ячеек, в которых предыдущая частота стояла в комбинации первой. Короткие импульсы с ячеек Ф поступают на импульсные вхо­ ды тиратронных ячеек и являются вторым, дополняющим, сигналом для срабатывания тиратронов декодирующей матрицы.

Декодирующая матрица состоит из двух ступеней. Первая ступень предназначена для декодирования комбинаций первых двух частот, вторая — для декодирования полной комбинации. На рис. 20, б по­ казана матрица для трехэлементных кодов' (число ступеней для я-элементных кодов я — 1).

Декодирование происходит следующим образом. С приходом час­ тоты /х срабатывают ячейки Ф1 и П 1. Положительный потенциал с катода тиратрона ячейки Пг поступает на потенциальные входы (клем­ ма 8) тех тиратронов первой ступени декодирующей матрицы, которые расшифровывают кодовые комбинации, начинающиеся с частоты ft. Короткий импульс с катода ячейки Фь поступает на все импульсные входы тиратронов, расшифровывающих комбинации, в которых час­ тота /х стоит в середине или в конце кода. При этом ни один тиратрон в матрице не зажжется, так как в одном случае сигнал придет только на потенциальные входы ячеек, а в другом — только на импульсные. С поступлением частоты f2 зажигаются тиратроны ячеек Ф2 и Л 2. При этом на декодирующей матрице зажигается тиратрон, отмеченный на рис. 20, б цифрой 12, так как на его потенциальном входе присут­

ствовал сигнал с ячейки Я г. на импульсном— сигнал с ячейки Ф2. По­ ложительный потенциал с катода тиратрона ячейки 12 готовит к сраба­ тыванию тиратроны ячеек 123 и 124. С приходом частоты f3 зажигается тиратрон ячейки 123 и т. д.

Если существует необходимость, чтобы на табло был зажжен толь­ ко тиратрон, соответствующий той комбинации частот, которая при­ сутствует в данный момент на входе дешифратора, то аноды тиратро­ нов последней ступени подсоединяют к анодной нагрузке ячеек П1—

# 4. В такой схеме, пока будет идти код, тиратрон будет мигать, а когда код прекратится, он останется в зажженном состоянии. Если необходи­ мо длительное хранение информации о поступлении кодов, то тира­

62

трон не следует соединять по схеме с общей анодной нагрузкой, а производить сброс информации вручную — отрицательным импульсом в его анод.

Число декодируемых комбинаций для данной схемы дешифратора

N — А™ — п{п — 1)(п — 2) . . . (п — т + 1 ) ,

где т — крличество частот в посылке; п — количество используемых частот.

Максимальное число декодируемых комбинаций будет при т —

— п — 1.

При проектировании кодирующих и декодирующих устройств осо­ бое внимание следует обращать на выбор активного элемента для реа­ лизации данной функциональной схемы. Так, для построения схемы дешифратора на транзисторах потребовалось бы как минимум в два раза больше активных элементов. Действительно, если бы даже уда­ лось построить схему, у которой один триод, открываясь, подавал бы питание на шину (аналогично разрешению, снимаемому с ячейки Пг), другой триод после поступления сигнала о приходе второй час­ тоты подавал бы питание на группу триодов, декодирующих сигналы 123, 124, 125 и другие, то для запоминания сигналов потребовался бы еще один • триод, а все элементарные ячейки пришлось бы строить на триггерах. Кроме того, оставалась бы проблема индикации расшиф­ рованного сигнала и установки схемы в исходное состояние перед при­ емом очередной кодовой посылки.

Выводы: 1. Последовательности символов множества сообщений могут быть представлены в виде многочлена, формулы, матрицы, гео­ метрической фигуры, графа.

2.При выборе метода представления кода следует исходить из конкретной задачи, поставленной перед разработчиком или перед исследователем. Так, геометрические модели кодов могут быть исполь­ зованы при построении корректирующих кодов; систематические коды удобнее строить, представляя код в виде матрицы; многочастотные коды (и коды с основанием т > 2) обычно строят, используя формулы соединений, и. т. д.

3.При построении кодирующих и декодирующих устройств сле­ дует стремиться к тому, чтобы выбранные активные элементы обес­ печивали минимальный расход радиотехнических деталей, а функцио­ нальная схема минимум функциональных элементов.

4.Наиболее распространенной логической операцией, которая встречается в устройствах телемеханики и связи, является операция И.

Поэтому доминирующим функциональным элементом при синтезе кодирующих и декодирующих устройств должен быть модуль, выпол­ няющий операцию И.

63

Задачи к теме 7

1. Построить функциональные схемы шифратора и дешифратора для ко­ да 11 110.

2.Записать в виде многочлена числа: 1381,211,3476.

3.Представить в виде многочлена код 101001.

4.Какому коду соответствует многочлен:

Fx = IX е + IX1+

ОХ2Н- ОХ3+

IX*+ ОХ34 -

IX 6?

5. Сложить, умножить и

разделить по

модулю 2

числа 10010011 и

1010001.

6.Какое максимальное число кодовых комбинаций, отличающихся как сами­ ми элементами, так и их порядком, можно построить из алфавита, содержащего че­ тыре качественных признака?

7.Построить код, комбинации которого отличаются только самими элемента­

ми, если алфавит кода а, б, в, г. Чему равно максимальное количество комбинаций такого кода?

8.Построить геометрическую модель трехзначного двоичного кода. Какие коды могут обнаруживать, а какие исправлять ошибку в коде 110?

9.Построить единичную матрицу четырехзначного кода. Какой вид будет иметь определяющая матрица семизначного кода?

10.Какой вид имеет кодовое дерево для двоичного алфавита? Для алфавита

т= 4?

11.Какие комбинации кода 100110101 будут его префиксами, а какие — су-

фиксами?

12. Построить систематический код, если комбинации исходного кода 1,01,001, 0001, а конечная комбинация — 000.

ОСНОВНАЯ ТЕОРЕМА КОДИРОВАНИЯ ДЛЯ КАНАЛОВ СВЯЗИ БЕЗ ШУМОВ

Система передачи информации, в которой аппаратура не вносит ни­ каких искажений, а канал связи — затуханий и помех, называется

информационной системой без шумов. В такой системе, как бы ни были закодированы сигналы, потерь информации не будет. Но это еще не значит, что в такой системе автоматически решаются все техниче­ ские проблемы передачи информации. Для однозначного декодирова­ ния принятых сообщений, а также для передачи больших объемов ин­ формации при меньших временных и материальных затратах коды должны, в частности, удовлетворять следующим требованиям:

разные символы передаваемого сообщения должны иметь различ­ ные коды; код должен быть построен так, чтобы можно было четко от­ делить начало и конец букв алфавита, из которого составлено сообще­ ние; код должен быть максимально кратким: чем меньше число элемен­ тарных символов требуется для передачи данного сообщения, тем ближе скорость передачи информации к пропускной способности дан­ ного канала связи.

64

Первое требование очевидно, так как при одинаковых кодовых обозначениях различных букв алфавитов нельзя будет их однозначно декодировать.

Второе требование может быть удовлетворено следующим образом: введением в код дополнительного разделительного символа — паузы, что значительно удлиняет коды, а следовательно, и время передачи сообщения; созданием кода, в котором конец одной буквы не может быть началом другой; либо кода, в котором все буквы передаются ком­ бинациями равной длины, т. е. равномерного кода. При этом следует отметить, что равномерные коды обладают известными преимущества­ ми: длину каждой буквы можно определить простым подсчетом элемен­ тарных символов, что позволяет автоматизировать процесс декодиро­ вания и строить простые декодирующие устройства (например, рис. 19,6). Однако равномерные коды имеют один существенный недостаток: все кодовые слова алфавитов, представленных ими, имеют равную дли­ ну независимо от вероятности появления отдельных символов кодиру­ емого алфавита. Такой код может быть оптимальным только для слу­ чая равновероятных и взаимонезависимых символов сообщений, что довольно часто встречается в телемеханике и никогда — при передаче текстовых. сообщений.

Для того чтобы найти условия, удовлетворяющие третьему, ос­ новному, требованию к кодам, необходимо узнать, в каких пределах находится минимальная средняя длина кодов слова данного алфавита, а также найти условия, при которых эта длина может быть уменьшена.

Пусть требуется передать N сообщений при помощи алфавита, который состоит из конечного числа символов т. Обозначим: р{ — вероятность появления г'-го сигнала; pin — условная вероятность по­ явления i-ro сигнала относительно ;'-го; L — средняя длина кодового слова для N сообщений, которая может быть определена как некото­ рое среднее количество элементарных символов для передачи среднего количества информации на кодовое слово данного алфавита и равна отношению количества информации на символ сообщения к максималь­ ному количеству информации на символ данного алфавита. Исполь­

зуя формулы (24) и (28), запишем

N

N

 

L’ =

Н

{

(41)

 

2

Pt 2 рщ iog2 pi/r

И„

 

 

 

 

 

 

Для случая равновероятных и взаимонезависимых символов

 

 

L" =

Н"

 

lo g ., N

(42)

 

и

 

 

 

 

“ max

 

lo g 2 /n

 

так как энтропия взаимозависимых и неравновероятных символов меньше, чем энтропия независимых и равновероятных следовательно,

L" > U .

Выражение (41) представляет собой предельный случай возможно­ го сокращения количества символов на образование кодового слова.

3 3-1273

65

Выражение (42) позволяет определять минимальное количество сим­ волов на одно сообщение, переданное равномерным кодом, в котором символы алфавита взаимонезависимы. Из этих выражений видно, что длина некоторого среднего кодового слова может быть сокращена за счет увеличения количества качественных признаков т. Например, если каждой букве русского алфавита в виде качественного признака выделить отдельную частоту, то длина любого кодового слова будет равна единице. Однако при этом потребовался бы сравнительно слож­ ный шифратор на 32 команды, необходимо было бы занять в эфире ши­ рокую полосу частот, поставить в приемном устройстве 32 фильтра и т. д. В общем случае увеличение количества качественных признаков часто ведет к усложнению приемно-передающей аппаратуры и не всег­ да себя оправдывает.

Длину среднего кодового слова можно также сократить, исполь­ зовав информационный резерв кода за счет уменьшения избыточности. В этом смысле предельно короткими являются так называемые опти­ мальные кодых — коды с нулевой (или близкой к нулю) избыточностью. Классическим примером кода с нулевой избыточностью может быть, код Шеннона — Фано 1.2 Но прежде чем приступить к рассмотрению прин­ ципов оптимального кодирования на примерах конкретных кодов, вспомним популярную задачу об отгадывании чисел [49], поскольку принцип решения этой задачи подобен принципу построения оптималь­ ного кода Шеннона — Фано. Кроме того, выводы, которые будут полу­ чены в результате рассмотрения этого элементарного примера, послужат основой для нахождения соотношений, которые приведут нас к основ­ ной теореме кодирования.

Итак, сколько вопросов необходимо задать собеседнику, чтобы отгадать задуманное число N, если ответом будет только «Да» и «Нет»? Пусть задуманное число N < 10. Для решения этой задачи используем уже известные нам положения теории информации. Процесс угадыва­ ния путем постановки k вопросов будем рассматривать как некоторый сложный опыт

A - k — а 1> а 2> • • • > a k>

где « г — ответ на первый вопрос; а 2 — ответ на второй вопрос; а к — ответ на последний вопрос.

Энтропия опыта На =

log 2, так как с равной вероятностью ответ

может быть и «Да» и «Нет». Энтропия двух

опытов Наг = 2 log 2.

Энтропия k опытов

Hak < к log 2.

 

 

 

1 В универсальном значении

оптимального кода не

существует. Код может

быть оптимальным при какйх-либо определенных начальных условиях,, в частности

оптимальный код Шеннона — Фано является оптимальным при отсутствии

помех

2

Э т о т к о д б ы л п р е д л о ж е н в 1 9 4 8 — 1 9 4 9 гг. н е з а в и с и м о друго т д п у г а Р М

Ф а н о

и

К. Ш е н н о н о м .

'

66

Если угадываемое число лежит в пределах 10, то максимальная информация опыта 4*

l Ak = 1 log 10.

Из вышесказанного можно заключить, что

log 10 = IAk< Hak < k log 2 = log 2k,

откуда

2 * > Ю ; й > lo g , 10 = ^ « 3 , 3 2 .

Так как число опытов не может быть дробью, то k — 4. Этот факт легко проверить. Необходимо только ставить вопросы так, чтобы информация в ответе была максимальной. А когда это возможно? Это возможно в том случае, если при каждом опыте иметь дело с рав­ новероятными событиями, т. е. если на вопрос с равной вероятностью может последовать ответ «Да» или «Нет» и энтропия одного опыта дей­ ствительно равняется log 2.

Таким образом, первый вопрос должен звучать так: «Задуманное число больше 5?» Если ответ был «Нет», то следует задать вопрос: «Задуманное число больше 3?» и т. д. Если каждый раз разбивать ос­ тавшееся число на возможно более равные части, то любое число из 10 будет определено максимум за четыре вопроса.

Если N < 100, то k > - ^ у

>

7; если N < 1000, то k >

>

>- 10. В общем случае

 

 

 

*

>

т | т -

<43>

Так как разность k — -°ор ■всегда меньше единицы (округление все­ гда происходит до ближайшего целого числа), то

Н4)

Нетрудно убедиться в том, что для двоичных кодов k показывает суммарное количество нулей и единиц, необходимых для выражения данного числа. Действительно, число 10 в двоичном коде равно 1010,

а число 100—1100010. Как видим, число элементарных символов равно logN

соответственно четыре и семь, т. е. величина

может служить

мерой длины кодового слова. Для случая, когда N является целой сте­ пенью числа 2, k — целое число и представляет собой минимальную длину кодового слова L для представления числа N в двоичном ал­ фавите.

з*

67

Для двоичных алфавитов (т — 2)

 

 

 

 

 

 

 

L >

lo g ТУ

log2 N.

 

 

(45)

 

 

 

 

lo g 2

 

 

 

 

 

Разность L lo g N

как бы

характеризует

избыточность данного ан-

 

 

lo g 2

 

 

 

 

 

 

 

 

самбля сообщений,

причем величина

lo g N

 

 

не что иное,

^ представляет

как коэффициент сжатия р =

. Чем

больше N,

тем

меньше

избыточность,

тем

короче средняя длина кодового слова. Нетрудно

заметить,

что

чем больше

N,

тем

меньше

разность

k

,

тем ближе

к к L,

тем точнее величина -— у

характеризует среднюю

минимальную длину кодового слова для представления данного ансамб­ ля N сообщений в двоичном коде.

Все предыдущие положения справедливы, если данный ансамбль сообщений представлять не в двоичном, а в m-значном коде. В этом случае при нахождении минимальной длины кодовых слов (другими словами, при построении экономных кодов) следует пользоваться лг-значной системой счисления. Скажем, для случая угадывания чисел разбивать не на две, а на т возможных равных частей и при исполь­ зовании алфавитов с разными вероятностями в качестве каждого по­ следующего шага делать разбиение не на две группы с равными веро­ ятностями, а на иг групп и т. д.

Для /л-значного алфавита длина кодового слова

lo g N

1 > lo g т

Подводя итоги, можно сказать, что средняя минимальная длина кодового слова L ансамбля ./V сообщений, составленного из алфавита т, не может быть меньше, чем частное от деления среднего количества ин­ формации данного ансамбля сообщений на максимальное количество информации на символ, т. е.

L > - w w

(«>

где в общем случае

N

Я'll Pi log Pi, t=i

ав случае равновероятных символов

Я = log N.

С другой стороны,

ТН

lo g m < 1 ,

68

или

i < T ^ r + 1-

<47>

Выражения (46) и (47) представляют собой соответственно верх­ нюю и нижнюю границы минимально необходимой средней длины ко­ дового слова. Используя эти выражения, получаем

Н

н

+ 1.

(48)

< L <

lo g m

lo g m

 

 

Рассмотрим теперь условия, при которых будет уменьшаться раз­ ность между верхней и нижней границами, т. е. условия, при которых средняя минимальная длина кодового слова будет приближаться к значению Я /log т. Для этого сначала выясним природу избыточности, выражающейся неравенством

L

lo g N

J

(49)

 

 

lo g m

Предположим, передаются символы некоторого равномерного кода с числом признаков т = 2, причем появление каждой из букв кода не зависит от появления любой другой буквы этого кода. Для пере­ дачи восьми букв алфавита минимальная длина кодового слова

lo g N

__ lo g 8

Iog3 8 = 3.

lo g m

lo g 2

 

Для передачи пяти букв

 

 

L5 =

log2 5 = 2,322,

т. е. минимальная длина не может быть передана меньше, чем тремя

символами. В этом случае коэффициент сжатия р =

Н 2 3 2 2

= 0,774, а избыточность

 

 

 

//m a x

 

 

 

 

D = 1 — р = 1 — 0,774 = 0,226.

 

Цифра 0,226 характеризует степень недогруженности кода.

Выражение

 

 

 

 

L >

Н

lo g

IV

(50)

lo g m

lo g

т

справедливо для кодов с равновероятными и взаимонезависимыми сим­ волами, в противном случае энтропия выражалась бы одной из формул (24) — (27) в соответствии с характером взаимозависимости между сим­ волами сообщения.

Для т = 2 выражение (50) справедливо тогда, когда вероятности появления 0 и 1 одинаковы. Но в действительности это будет только в случае, если N — целая степень числа 2. Например, для N — 4 чис­ ло нулей равно числу единиц и равно 4 (код двузначный). Для N = 8 число нулей равно числу единиц и равно 12 (код трехзначный) и т. д. Однако для N = 5 соотношение нулей и единиц — 10 к 5 (табл'. 10),

69

Соседние файлы в папке книги из ГПНТБ