Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Бездудный, В. Г. Техника безопасности в шахтном строительстве

.pdf
Скачиваний:
5
Добавлен:
22.10.2023
Размер:
10.55 Mб
Скачать

предыдущей буквы, как это показано на рис. 50, б. Например, если для предыдущего примера нмакс = И, сжатый код будет иметь вид

11110000

11011000

00010111 ® 01100011

11110000

01000111

00111010011

Представляет также интерес способ сжатия информации на основе исключения повторения в старших разрядах последующих кодов оди­ наковых элементов старших разрядов предыдущих кодов, предложен­ ный И. М. Бобко. При обработке технико-экономической информации практически невозможно рассчитать элементы массивов по заранее составленным алгоритмам и программам. Поэтому приходится хранить массивы целиком. Массивы технико-экономической информации могут быть однородными. В них элементы столбцов или строк расположены в возрастающем порядке. Если считать старшими разряды, расположен­ ные левее данного элемента, а младшими — разряды, расположенные правее, то можно заметить, что во многих случаях строки матриц отли­ чаются друг от друга в младших разрядах. Если при записи каждого последующего элемента массива отбрасывать все повторяющиеся эле­ менты, то может быть получено сокращение массива в 2—10 раз.

Для учета выброшенных разрядов вводится знак раздела р, ко­ торый позволяет отделить элементы в свернутом массиве. При развер­ тывании вместо знака р восстанавливаются все пропущенные разряды, которые были до элемента, стоящего непосредственно за р в сжатом тексте. В случае полного повторения строк записывается соответствую­ щее количество р. Например, для массива

9570124

9570125

9570386

9570390

1234567

1234591

1234693

свернутый массив будет иметь вид

9570124 р5р386р 9012345 67р91рЗ

180

Расшифровка (развертывание) происходит с конца массива. Переход на следующую строку происходит по двум условиям: либо по запол­ нении строки, либо при встрече р. Пропущенные цифры заполняются автоматически по аналогичным разрядам предыдущей строки

9570124

........... 5

....3 8 6

........ 90 1234567

........ 91

...........3

При хранении большого числа массивов в долговременной памяти целесообразно свертывать массивы до записи на магнитный носи­ тель. После считывания в оперативную память массивы разворачи­ ваются и обрабатываются затем как обычные.

Таким образом, при использовании программ свертки и разверт­ ки, которые занимают всего 70 ячеек каждая, достигается заметная экономия долговременной памяти и времени обращения к ней. Если же обрабатывать на ЭВМ свернутые массивы, то экономится и оператив­ ная память.

Преимущество рассмотренного способа сжатия перед другими состоит в том, что в нем полностью исключается неоднозначность адре­ сации. Недостаток — необходимость в предварительном упорядочи­ вании массивов.

Идею И. М. Бобко можно применить и для свертывания масси­ вов, в которых повторяющиеся разряды встречаются не только с на­ чала строки. Если в строке один повторяющийся участок, то добав­ ляется еще один символ К — означающий конец строки. Длина строки известна. Расшифровка ведется от К до К ■Оставшиеся между К цифры вместе с пропущенными разрядами должны составлять полную строку. Например:

Исходный массив

Свернутый массив

1

2

3

4

 

5

 

6

7

1

2 3

4

5

6

7

1 2 3 4

5

8

6

К р 8

6

К 2 I

2

1 3 4

 

5

2 4

р 2 4

К 3 р 9

3 1

3

4

 

5

2 9

К 4 2

9

р К р

4

2

9

4

 

5

2

9

К 5 р 1 К

 

 

4

2

9

4

 

5

 

2

9

 

 

 

 

 

 

5

2

9

4

5

2

1

 

 

 

 

 

 

Если в строке массива несколько повторяющихся участков, то можно вместо р вставлять специальные символы, указывающие на необ-

181

ходимое количество пропусков. Например, если обозначить количество пропусков, соответственно, X — 2; У — 3; Z — 5, то исходный и свер­ нутый массивы будут иметь вид:

1 2 3

4

5 6 7 9

007 6

СЛ

1 2 3 4 5 6 7 9 8 7 6 5

1 2 3 4 5 8 6 9 8 7 6

1

Z 8 6 X X 1 2 1 К 2 4 Z

2 1 3 4 5 2 4 9 8 7 6

1

3 Z 9 3 X X 4 2 9 Z F 0

3

1 3 4

5 2 9 3 8 7 6 1

Z Z X 5 Z 1 2 6 3 1 8 1

4 2 9

4

5 2 9

3 8

7 6 0

2 7 X 4 6 2 7 1 Z 1 2 3

4

2 9

4

5

2 9

3 8

7 6 0

4 5

5

2 9 4

5

2

1 3

8

7 6 0

 

6

3

1 8

1 2 7

3

8 4

6 2

 

7

1

1 8

1 2 7

1 2 3 4 5

 

Метод Г. В. Лавинского основан на том, что в памяти машины хранятся «сжатые» числа, разрядность которых меньше разрядности реальных чисел. Эффект сжатия достигается за счет того, что после­ довательности предварительно упорядоченных чисел разбиваются на ряд равных отрезков, внутри которых отсчет ведется не по их абсо­ лютной величине, а от границы предыдущего отрезка. Разрядность чисел, получаемых таким образом, естественно, меньше разрядности соответствующих им реальных чисел.

Для размещения в памяти ЭВМ М кодов, в которых наибольшее из кодируемых чисел равно N, необходим объем памяти

 

Q = М log2 Хдв разр.

С ростом N длина

кодовой

комбинации будет расти как log2 N.

Для экономии объема

памяти

Q число 2 ('«к* Л/1, где выражение в

скобках — округленное значение log2 N до ближайшего целого числа, разбивают на L равных частей. Максимальное число в полученном

интервале чисел будет не больше log2 Величина iog2 ~ определяет

разрядность хранимых чисел; объем памяти для их хранения будет

N

Мlog2 — . п-сли в памяти ЭВМ хранить адреса границ отрезков и поряд­

ковые номера хранимых чисел, отсчитываемых от очередной границы, то log2 — 1) определит разрядность чисел для выражения номера гра­ ницы; объем памяти для хранения номеров границ будет (L — l)log2x X — 1), где L — 1 — число границ между отрезками (это число всег­ да на единицу меньше, чем число отрезков) М — 1, так как в послед­ нем интервале должно быть хотя бы одно число. Общий объем памяти при этом будет не больше

Q' = М log2 ~ + ( L ~ 1) log2 - 1).

(105)

Чтобы найти, при каких значениях L выражение (105) принимает минимальное значение, достаточно продифференцировать его по L и приравнять производную к нулю. Нетрудно убедиться, что QMHHбудет

182

при L0m — м Если подставить значение Lom в выражение (105),

то получим значение объема памяти при оптимальном количестве зон, на которые разбиваются хранимые в памяти ЭВМ числа,

Q ' ^ M log2 log2 ( М - 1) .

При поиске информации в памяти ИПС прежде всего определяют значение LonT, затем находят величину интервала между двумя грани­

цами С = — где [log2 N] — округленное значение log2 N до

ближайшего целого числа. Затем определяют, в каком именно из интер­ валов находится искомое число X

К = ~ ,

после чего определяется адрес искомого числа как разность между абсолютным значением числа и числом, которое является граничным для данного интервала.

Например, при N = 1000, X — 700 и М = 26 поиск числа 700 ведется следующим образом:

L —

26

26

8; С

2[log3iooo]

1024

128;

 

In 26

3,25

8

8

 

 

K = 1 W ^ 5 ’4 ’ 6 > к > 5 -

 

 

Искомое число лежит в шестом интервале, где расположены числа

от 128 • 5 =

640

до 640 +

127 =

767 (прибавляем

127, а не 128,

так как в интервале находится 128 чисел, включая 0). Порядковый но­ мер искомого числа 700—640—60. Значит число 700 записано под но­ мером 60 в шестом интервале.

Выигрыш в объеме памяти определяется следующим образом:

Q = М log2 IV « 26

10 % 260 дв.

разр.,

Q" sk М log2 eN In М

'26 log2

2,72 ■1000 • 3,25

« 2 1 9 дв. разр.,

М

 

26

 

AQ = Q Q" = 260

— 219 = 41 дв. разр.

Выводы: 1. Отличие в трактовке термина информация в теории ин­ формации и экономике в том, что в первом случае полностью игнори­ руется содержательность информации, во втором количество ин­ формации зависит от того, когда, кому, что передается, т. е. к коли­ чественной характеристике прибавляются качественные.

2. Полезность информации, циркулирующей в данной системе, должна определяться по реакции системы на данный вид сообщения. Информация будет полезной в том случае, если в результате ее получе­ ния выходной показатель функционирования системы будет прибли­

183

жаться к оптимальному значению. Реакцию системы на различного• рода информационные сообщения следует обыгрывать на ЭВМ.

3. Коды, предназначенные для передачи и обработки экономической информации, должны строиться с учетом использования перспективных технических средств обработки информации, видов основных информа­ ционных носителей и возможности контроля принимаемых кодов. При разработке кодов следует стремиться к теоретически минималь­ ной средней длине кодовых слов. Учете корректирующем коде статисты-, ки закономерностей возникновения ошибок при механизированной об­ работке информации, так же, как и в стационарных каналах связи, намного уменьшает избыточность кода для обнаружения того же про­ цента ошибок по сравнению с кодом, построенным без учета этой ста­ тистики, и в этом смысле приближает код к оптимальному.

Задачи к теме 14

1.Привести примеры построения кодов экономической информации: поряд­ кового, десятичного, повторения, смешанного и специальных кодов.

2.Какая разница в представлении данных вертикальной и шахматной таб­

лицами?

3.Являются ли разрешенными кодовые комбинации 89, 034, 061, 372, 3931,

5954, 731, 876, 998, если в памяти машины заложена кодовая книга табл. 34?

4.Составить кодовую книгу на 16 слов с кодовым рас­ стоянием d = 2.

5.При помощи кодовой книги табл. 34 исправить

 

ошибки в кодовых комбинациях 1772, 1453, 3260, 67119,

0000 10000000 0

7777, 8666.

 

 

 

6.

Составить кодовую книгу на 10 слов с кодовым рас-

1 ( 1111(111111

стоянием d

3.

 

 

2212222222222

 

 

 

 

 

3333333313333

 

 

 

4444444441444

 

 

 

 

 

5355555155155

 

• •

 

 

6 6 Ш 6 6 6 Ш 6 6 |

 

• • •

 

 

 

 

 

 

 

7777777777777

 

 

1111

 

 

• •

 

 

 

1911191991199

 

 

 

19 7 2 Р

 

 

 

 

Рис. 5Ь К задаче 7.

Рис. 52. К задаче 8.

 

7. Обнаружить ошибку на перфокарте рис. 51

методом контроля по столбцам.

8. Обнаружить ошибку на перфоленте (рис. 52)

методом контроля по строкам.

9. Обнаружить двойную

ошибку

на перфоленте (рис. 53) методом контроля

по строкам и столбцам одновременно.

10. Найти значения проверочных разрядов для обнаружения адреса ошибки при использовании принципа делимости, если значения информационных разрядов равны 2431, 1743 и 6871.

184

 

11.

О бн аруж и ть

а д р ес ош ибки и исправить о ш и бк у , и сп ол ь зуя

принцип дел и ­

м ости ,

есл и переданы

числа

5 3 1 9 7 1 ,

6 8 7 1 4 6 5 , а

получены

5271971 и 6875465 .

П ок азать

п р оц ед ур у о б н а р у ж ен и я ош ибки методом

контрольны х проверок .

 

12.

П ол ь зуясь

табли ц ей

кодов

Б о д о ,

сж ать

м етодом

К- И .

К урбак ов а и

Р .

В .

С мирнова слово «пролетарий». К акой вид будет иметь сжаты й к од при п — 16

и

я =

10?

 

 

 

 

 

 

 

 

 

 

13.

С вернуть методом И .

М . Б обк о следую щ ий м ассив данны х:

 

 

 

 

 

 

 

 

1936123

 

 

 

 

 

 

 

 

 

 

 

1936124

 

 

 

 

 

 

 

 

 

 

 

1936567

 

 

 

 

 

 

 

 

 

 

 

1936890

 

 

 

 

 

 

 

 

 

 

 

0000000

 

 

 

 

 

 

 

 

 

 

 

0000001

 

 

 

 

 

 

 

 

 

 

 

2345678

 

 

 

 

 

 

 

 

 

 

 

0000000

 

 

 

 

 

 

14. Н айти оптимальное значение

объема памяти при сж атии информации методом

Г .

В .

Л авинскаго,

если

количество чисел, которы е

необходим о

разместить в памяти

Э В М ,

М = 100, а

абсолю тное

значение

сам ого

больш ого и з них N =

4 050 .

Литература

1.

А л е к с е е в а

Н.

И.,

Г и н о д м а н

В. А. Коды обнаруже­

ния ошибок. Изд-во МЭСИ. М., 1969.

 

2.

Б о н г а р д

М.

М.

О понятии «полезная информация».— В сб.:

Проблемы кибернетики. Вып. 9. М., Физматгиз, 1963.

3.

В а р ш а м о в

Р.

Р.

Оценка числа сигналов в кодах с коррек­

цией ошибок. Доклады АН СССР, т. 117, 1957.

4.

Г р е к о в а

И.

К

вопросу об информации.— «Наука и жизнь»,

1967, № 3.

 

Основы передачи данных по проводным каналам

5.

Г у р о в В. С.

связи. М., «Связь», 1964.

Введение в теорию передачи информации

6.

Д о л у х а н о в

М.

П.

по электрическим каналам связи. М., Связьиздат, 1955.

7.

3 а р е н и н

Ю.

Г.

Корректирующие коды для передачи инфор­

мации. К., «Техшка», 1965.

 

Коды в технике. К., «Тех­

8.

3 а р е н и н

Ю.

Г.,

И н о с о в В. Л.

шка», 1964.

9.3 ю к о А. Г. Элементы теории информации. К., «Техшка», 1969.

10.К а н е в с к и й 3. М. Передача сообщений с обратной связью. М., «Знание», 1969.

11.К а р н а п Р. Значение и необходимость. М., Изд-во иностр, лит., 1959.

12.К а т к о в Ф. А. Телеуправление. К., «Техшка», 1967.

13. К л ю е в Н. И. Информационные основы передачи сообщений.

М., «Советское радио», 1966.

14.К у р б а к о в К- И. Кодирование и поиск информации в автома­ тическом словаре. М., «Советское радио», 1968.

15.

К о л е с н и к В.

Д.,

М и р о н ч и к о в

Е. Т. Декодирование

циклических кодов. М., «Связь», 1968.

к определению понятия

16.

К о л м о г о р о в

А.

Н. Три подхода

«количество информации». В кн: Проблемы передачи информации, т. 1, вып. 1, 1965.

17. К о т е л ь н и к о в В. А. О пропускной способности эфира. Изд. Всесоюзного энергетического комитета МГУ. М., 1933.

18.К о т е л ь н и к о в В. А. Теория потенциальной помехоустой­ чивости. М., Госэнергоиздат, 1956.

19.К р а й з м е р Л. П. Устройства хранения дискретной информа­ ции. М., Госэнергоиздат, 1961.

20. М а х л у п

Ф.

Производство и распространение знаний в США.

М., «Прогресс», 1966.

К. А., К и р и л л о в Н. Е. Кодирование

21. М е ш к о в с к и й

в технике связи. М., «Связь», 1966.

22. М о л ь

А.

Теория

информации и эстетическое восприятие. М.,

«Мир», 1966.

 

А.

Эффективное кодирование. М., «Энергия», 1965.

23. Н о в и к

А'.

186

24.Н о в и ц к и й В. М. и др. Телемеханика. М., «Высшая школа». 1967.

25.П и р с Д ж. Символы, сигналы, шумы. М., «Мир», 1967.

26. П и т е р с о н У. Коды, исправляющие ошибки. М., «Мир», 1964.

27.П у г а ч е в В. С. Введение в теорию вероятностей. М., «Наука», 1968.

28.С о л о д о в А. В. Теория информации и ее применение к задачам

автоматики. М., «Наука», 1968.

29.Справочник проектировщика систем автоматизации управления производством. М., «Машиностроение», 1971.

30.С у б ь е - К а м и. Двоичная техника и обработка информации. М., «Мир», 1965.

31.С у п р у н Б. А. Первичные коды. М., «Связь», 1970.

32.

Т а р а с е н к о

Ф.

П. Введение

в курс теории информации.

Томск, Изд-во Томского университета, 1963.

 

33.

Т и м о щ у к Л. Информационные носители, их характеристики

и области применения. М., «Знание», 1967, №

1.

34.

Т у т е в и ч

В.

Н.

Основы телемеханики. М., «Энергия», 1962.

35.

У д а л о в

А.

П.,

С у п р у н Б.

А.

Избыточное кодирование

при передаче информации двоичными кодами. М., «Связь», 1964.

36.

Ф а н о Р. Передача информации. М., «Мир», 1965.

37.

X а р к е в

и ч

А. А. Борьба с помехами. М., «Физматгиз», 1963.

38.X а р к е в и ч А. А. О ценности информации. В сб.: Проблемы кибернетики, вып. 4. М., «Физматгиз», 1960.

39.X а р к е в и ч А. А. Очерки общей теории связи. К., Гостехиздат, 1955.

40. X а ф ф м е н Д. Метод построения кодов с минимальной избы­ точностью. В сб.: Кибернетический сборник, № 3. М., Изд-во иностр.

лит., 1961.

вероятностей.

41. Х и н ч и н А. Я. Понятие энтропии в теории

В сб.: Успехи математических наук, т. VIII, вып. 3/55,

1953.

42.Х э м м и н г Р. В. Коды с обнаружением и исправлением ошибок. М., Изд-во иностр. лит., 1953.

43.Ц ы м б а л В. П. Декодирование при помощи сегментных мат­ риц. Труды конференции по электронной технике, т. 1. М., 1967.

44.Ц ы м б а л В. П. Устройства дискретной техники на логических тиратронах. К-, «Техшка», 1969.

45. Ц ы м б а л В. П., Б а к а л и н с к и й В. П. Шифратор и дешифратор сменнокачественных частотных кодов. «Механизация и автоматизация управления», 1966, № 2.

46. Ч е р н ы ш В. И. Информационные процессы в обществе. М.,. «Наука», 1968.

47. Ш е н н о н К- Э. Работы по теории информации и кибернетики,

М., Изд-во иностр. лит., 1963.

48.Ш л я п о б е р с к и й В. И. Элементы дискретных систем связи. М., Воениздат, 1962.

49.

Я г л о м

А. М., Яг л ом И. М. Вероятность и информация. М.,

Физматгиз, 1960.

Г.

К проблеме измерения количества, содержатель­

50.

Я с и н

Е.

ности и ценности информации. В сб.: Экономическая

семиотика.

М.,

«Наука», 1970.

п

N. М.,

Е 1 s р a s В. Double — Error — Correcting

51.

A b г а m so

Codes and Decoders

lor

Non

Information

Processing Conference in

Pa­

ris,

1959.

 

 

Z. Science and information

theory. Academic Press.

52.

В r i 1 1 о u i n

New York, 1956.

J.

E.

Binary Coding.

IRE

Irans.,

P G II-4, 23—28,.

53.

G о 1 а у

M.

1954.

 

 

 

 

 

 

 

 

 

187

54.M a c d о п а 1 d I. Е. Constructive coding methods for the binary Symmetric independent data transmission chanel, M. S. Thesis, Depart. Electrical Engineering, Syracuse Univ., Syracuse, 1958, № 5.

55.M e 1 a s С. M. A new group of Codes for Correction of Dependent —

Errors in Data Transmission, IBM, Research Develop., 4, 58—65 (1960). 56. M u 1 1 e r D. E. Application of Boolearn algebra to Switching Circuit Design and to Error Detection, IRE Trans., EC—3, 6—12, 1954.

57.

P 1 о t c i n M. Binary Codes with

Specified minimum distance,

IRE

Trans., I I — 6, 445—450 (1960).

 

58.

F i r e P. A. Class of Multiple — Error — Correcting Binary Codes

for Non — Independent Errors, Silvania

Raiconnaisance System labora­

tory, Mountain, View, Calif., (1959).

 

Приложения

1. Таблица двоичных логарифмов целых чисел

X

 

log X

X

log X

X

log X

1

 

0,00000

38

5,24793

75

6,22882

2

 

1,00000

39

5,28540

76

6,24793

3

 

1,58496

40

5,32193

77

6,26679

4

 

2,00000

41

5,35755

78

6,28540

5

 

2,32193

42

5,39232

79

6,30378

6

 

2,58496

43

5,42626

80

6,32193

7

 

2,80735

44

5,45943

81

6,33985

8

3,00000

45

5,49185

82

6,35755

9

 

3,16993

46

5,52356

83

6,37504

10

 

3,32193

47

5,55459

84

6,39232

11

 

3,45943

48

5,58496

85

6,40939

12

 

3,58496

49

5,61471

86

6,42626

13

 

3,70044

50

5,64386

87

6,44294

14

 

3,80735

51

5,67242

88

6,45943

15

 

3,90689

52

5,70044

89

6,47573

16

 

4,00000

53

5,72792

90

6,49185

17

 

4,08746

54

5,75489

91

6,50779-

18

 

4,16993

55

5,78136

92

6,52356

19

 

4,24793

56

5,80735

93

6,53916

20

 

4,32193

57

5,83289

94

6,55459

21

 

4,39232

58

5,85798

95

6,56986

22

 

4,45943

59

5,88264

96

6,58496.

23

 

4,52356

60

5,90689

97

6,59991

24

 

4,58496

61

5,93074

98

6,61471

25

 

4,64386

62

5,95420

99

6,62936

26

 

4,70044

63

5,97728

100

6,64386-

27

 

4,75489

64

6,00000

200

7,644

28

 

4,80735

65

6,02237

300

8,229

29

 

4,85798

66

6,04439

400

8,614

30

 

4,90689

67

6,06609

500

8,966

31

 

4,95420

68

6,08746

600

9,229

32

 

5,00000 ■

69

6,10852

700

9,451

33

 

5,04439

70

6,12928

800

9,644

34

 

5,08746

71

6,14975

900

9,814

35

 

5,12928

72

6,16992

1000

9,965

36

 

5,16993

73

6,18982

10000

13,288-

37

 

5,20945

74

6,20945

 

 

189

Соседние файлы в папке книги из ГПНТБ