
- •Введение
- •1.Системы передачи информации. Способы представления и преобразования сообщений, сигналов и помех.
- •1.1 Общие сведения о системах связи
- •1.1.1 Информация. Сообщение. Сигнал
- •1.1.2 Обобщенная структура систем связи
- •1.1.3 Дискретизация непрерывного сигнала
- •1.2 Методы модуляции в системах связи
- •1.3 .Цифровая обработка аналоговых сигналов
- •1.3.1 Преобразование аналог—цифра. Шумы квантования
- •1.3.2 Преобразование цифра-аналог и восстановление континуального сигнала
- •1.4 Кодирование информации в системах связи
- •1.4.1 Назначение и классификация кодов
- •1.4.2 Неравномерные эффективные коды
- •1.4.3 Принципы помехоустойчивого кодирования
- •1.4.4Линейные двоичные блочные коды
- •1.4.5 Циклические коды
- •1.4.6 Сверточные коды
- •2 Многоканальные системы передачи информации
- •2.1 Уплотнение информации в аналоговых системах связи.
- •2.2 Цифровые системы многоканальной передачи
- •3 Принципы построения систем электросвязи.
- •3.1 Системы телефонной связи.
- •3.1.1 Телефонный аппарат
- •3.1.2 Структура атс, сигнализация, установление соединений (коммутация)
- •3.1.3 Сигнализация
- •3.1.4 Устройства сопряжения
- •3.1.5 Цифровая телефония
- •3.2 Коротковолновые и ультракоротковолновые системы связи
- •3.3.Телевизионные системы
- •3.3.1 Преобразование видеоинформации в сигнал
- •3.3.2 Сообщение и его кодирование
- •3.3.3 Методы цифрового кодирования, используемые при формировании тв программ
- •3.3.4 Цифровая передача сигналов телевидения по линиям связи и иерархия икм систем
- •3.3.5 Цифровое кодирование полных цветовых сигналов pal, secam в аппаратно-студийном комплексе
- •3.3.6 Выбор частоты дискретизации при цифровом кодировании полных цветовых телевизионных сигналов
- •3.3.7 Эффективное цифровое кодирование тв сигнала
- •3.4 Системы подвижной радиосвязи общего пользования
- •3.4.1 Особенности и классификация систем подвижной радиосвязи (спрс)
- •3.4.2 Транкинговые системы
- •3.4.2.1 Преимущества транковых сетей
- •3.4.2.2 Архитектура транкинговых систем
- •3.4.2.2.1 Однозоновые системы
- •3.4.2.2.2. Многозоновые системы
- •3.4.3 Сотовые системы (сспс).
- •3.4.4 Подход к проектированию сспс.
- •3.25 Древовидная сеть
- •3.4.5 Разделение сетей на иерархические уровни.
- •3.4.5.1 Физический уровень.
- •3.4.5.2 Канальный уровень.
- •3.4.5.3 Сетевой уровень.
- •3.4.6 Пути усовершенствования сспс.
- •3.4.7 Повышение надежности.
- •3.4.8 Увеличение скорости передачи.
- •3.4.9 Стандарты сспс.
- •3.5 Спутниковые системы связи
- •3.5.1 Основные параметры спутниковых линий связи
- •3.5.2. Принципы функционирования и обобщённая структурная схема систем спутниковой связи
- •3.5.3. Орбиты спутников связи, способы вывода спутников на орбиту
- •3.5.4 Способы модуляции и формирование групповых сигналов аналоговых и цифровых ссс
- •3.5.5 Способы модуляции
- •3.5.6 Многостанционный доступ (мд).
- •3.5.7 Структура кадра
- •3.5.8 Методы вхождения в синхронизм.
- •3.6 Волоконно-оптические системы связи
- •3.6.1 Оптическое волокно и особенности распространения светового потока в оптическом волокне
- •3.6.2 Методы модуляции светового потока
- •3.6.3 Лазеры и оптическое волокно
- •3.6.4 Структура восс
- •4. Сети связи и системы коммутации
- •4.1 Общие сведения о сетях связи
- •4.1.1 Модель взаимосвязи открытых систем osi / iso
- •4.1.2 Классификация сетей по области действия
- •4.1.2.1 Локальные сети
- •Характеристики лвс
- •4.1.2.2 Городские сети
- •4.1.2.3 Глобальные сети
- •4.2 Особенности современных сетевых архитектур
- •4.2.1Модель ssa компании ibm
- •4.2.2 Базовая модель dna фирмы dec.
- •4.2.3 Сети tcp/ip
- •4.3 Маршрутизазия и управление потоками в сетях связи.
- •4.3.1 Классификация алгоритмов маршрутизации.
- •4.3.2 Типы алгоритмов маршрутизации
- •4.4 Сети интегрального обслуживания
- •Библиографический список
- •394026 Воронеж, Московский просп., 14
1.4.2 Неравномерные эффективные коды
Неравномерные блочные коды используются практически только для кодирования источников для устранения или уменьшения избыточности, вызванной тем, что передаваемые сообщения не равновероятны. Идея такого кодирования заключается в том, что более вероятные сообщения кодируются короткими блоками, а менее вероятные — длинными, в результате чего средняя длина блока уменьшается.
При построении неравномерного кода необходимо обеспечить однозначность декодирования. Поясним это простым примером. Пусть алфавит источника содержит шесть сообщений, которые обозначим А, Б, В, Г, Д, Е, передаваемых независимо друг от друга с вероятностями P(А) =0,4; Р(Б)=0,3; Р(В)=0,1; Р(Г) =0,08; Р(Д)=0,07; Р(Е)=0,05. Сумма этих вероятностей, конечно, равна 1. Заметим, что энтропия этого источника
(1.36)
где i=l, ..., 6- -номер сообщения в алфавите источника.
Чтобы закодировать эти сообщения равномерным двоичным кодом, нужно затратить на каждое сообщение три символа. В соответствии с теоремой кодирования для источника эти сообщения можно закодировать двоичными символами так, чтобы в среднем на каждое сообщение затрачивать ncp = 2,16+ двоичных символов, где е — сколь угодно малое положительное число. Попробуем сделать это, не задумываясь над однозначностью декодирования, попросту присваивая наиболее вероятным символам наиболее короткие блоки, например:
А —0 Г —01
Б —1 Д —10 (1.37)
В —00 Е —11
Таким образом, для передачи сообщений А и В, имеющих суммарную вероятность 0,7, используют один символ, а для передачи остальных сообщений, имеющих суммарную вероятность 0,3- два символа, так что среднее число символов на сообщение
.
(1.38)
Получилось, что сообщения закодированы еще более экономно, чем позволяет теорема кодирования. Но это объясняется тем, что выбранный код не пригоден для передачи сообщения, так как он не обеспечивает однозначного декодирования. Действительно, пусть принята такая последовательность символов:
00110100011110... (1.39)
Ее можно в соответствии с (1.37) декодировать так:
А А Б Б А Б А А А Б ... и т. д.,
или ВЕГВАЕБД ...,
или АГДБВГББД ...,
и еще множеством различных способов.
Конечно, можно при коде (1.37) обеспечить однозначность декодирования, если после каждого сообщения передавать некоторый символ («запятую»), разделяющую сообщения. Но тогда это уже будет не двоичный код, а троичный. Так поступил Морзе, создавая свой код, где кроме точки и тире использовал третий символ • «пробел».
Однако можно построить и однозначно декодируемые двоичные коды «без запятой». Для этого достаточно (хотя и не необходимо) строить код так, чтобы он удовлетворял так называемому «префиксному свойству». Оно заключается в том, что ни одно используемое кодовое слово не должно совпадать с началом («префиксом») другого кодового слова. Это свойство не выполнено у кода (1.37), так как, например, слово, соответствующее сообщению А, является началом слова, соответствующего сообщению В и т. д.
Существует несколько алгоритмов построения неравномерных кодов с префиксным свойством. Среди них оптимальным, т. е. позволяющим лучше всего приблизиться к границе, определяемой энтропией, является алгоритм Хафмена. Рассмотрим здесь более простой алгоритм Фено, в большинстве случаев приводящий к тем же результатам.
Алгоритм Фено заключается в следующем. Сообщения алфавита источника, записанные в порядке невозрастающих вероятностей, разделяются на две части так, чтобы суммарные вероятности сообщений в каждой из этих частей были по возможности почти одинаковыми. Сообщениям первой части приписывается в качестве первого символа 0, а сообщениям второй части — 1. Затем каждая из этих частей (если она содержит более одного сообщения) делится на две, по возможности равновероятные, части и в качестве второго символа для первой из них берется 0, а для второй — 1. Этот процесс повторяется, пока в каждой из полученных частей не останется по одному сообщению.
Для примера (1.37) на первом этапе разделения в первой части окажется одно сообщение А с вероятностью 0,4, а во второй части - остальные сообщения с суммарной вероятностью 0,6. Если бы включить в первую часть два сообщения (А и Б), то отклонение от равновероятности было бы еще больше. Припишем сообщению А символ 0, а остальным сообщениям, в качестве первого символа -1.
На втором этапе разделим сообщения Б, В, Г, Д, Е на две равновероятные части, включив в первую часть сообщение Б, а во вторую часть — В, Г, Д, Е. Здесь суммарные вероятности для обеих частей одинаковы — по 0,3. Припишем сообщению Б в качестве второго символа 0, а остальным сообщениям — 1. На третьем этапе сообщения В и Г образуют одну часть, а сообщения Д и Е — вторую и т. д. В результате приходим к такому коду:
А —0 Г —1101
Б —10 Д —1110 (1.40)
В—1100 Е—1111
Этот код, как можно убедиться, по своему построению обладает префиксным свойством. Поэтому, например, последовательность символов (1.39) декодируется однозначно, а именно:
ААГАААЕА.
Среднее число символов на одно сообщение с учетом их вероятностей равно 2,2, т. е. превышает энтропию (1.36) менее, чем на 2%. Еще ближе можно было бы подойти к энтропии, если при составлении кода сопоставлять с кодовыми словами не одиночные сообщения, а последовательности из нескольких сообщений.
Следует еще раз подчеркнуть, что эффективные неравномерные коды позволяют сократить только ту избыточность источника, которая вызвана неравной вероятностью сообщений. В большинстве случаев основную роль играет избыточность другого происхождения, связанная с зависимостью между элементами сообщений.