
- •Введение. Основные понятия и определения системы передачи сообщений. Виды сигналов. Структурная схема системы пдс. (2 часа)
- •Вероятность появления одного и того же символа равна 0
- •- Правильный ответ
- •-Правильный ответ
- •Энтропия
- •Бит/символ
- •Максимальному значению
- •Не поддается определению
- •Производительностью источника
- •Среднего времени, отводимого на передачу одного символа и энтропии источника сообщений
- •Бит/секунда
- •Безразмерная величина
- •Пропускной способностью канала
- •Энтропией
- •Непрерывные сигналы непрерывного времени
- •Непрерывный сигнал непрерывного времени
- •Цифровым сигналом данных
- •Информационным
- •Сигналы, элементы которых могут иметь любую длительность, но не менее чем min
- •Сигнал, любой значащий интервал времени которого равен единичному интервалу или их целому числу.
- •2. Характеристики каналов. Непрерывный канал. Дк непрерывного времени. Расширенный дискретный канал (2 часа)
- •Каналом электросвязи
- •Каналы, при поступлении на вход которых непрерывного сигнала на его выходе сигнал также будет непрерывным.
- •Помехи, сосредоточенные по времени
- •Помехи, обусловленные случайными изменениями параметров канала связи
- •Помехи, характеризующиеся широким спектром и максимальной энтропией
- •Непрерывной функцией непрерывного времени
- •Дискретный канал непрерывного времени
- •Значащие интервалы совпадают с идеальными и значащие моменты совпадают с идеальными значащими моментами
- •Смещение значащих моментов элементов сигнала относительно идеальных с одновременным изменением их длительности
- •- Правильный ответ
- •- Правильный ответ
- •Дискретизацией
- •3. Передача дискретных сообщений. Требования к системам пдс. Способы разделения сигналов. (2 часа)
- •Все ответы верны
- •Что сеть должна обеспечивать длительное функционирование с поддержанием показателей качества обслуживания в заданных пределах
- •4. Методы сопряжения источника с дискретным каналом. Основы эффективного кодирования. Метод Шеннона-Фано. Метод Хафмена. (2 часа)
- •5. Методы построения корректирующих кодов. Циклический код. Синдром циклического кода. (2 часа)
- •6. Методы и устройства преобразования сигналов. Назначение и классификация упс. Обеспечение высокой помехоустойчивости при передаче дискретных сообщений. (2 часа)
- •7. Методы устройства синхронизации. Синхронизация в пдс. Методы и устройства синхронизации по элементам.
- •8. Адаптация в системах пдс. Структура адаптивных систем. Системы с обратной связью. (2 часа)
- •9. Системы факсимильной передачи сообщений. Принцип факсимильной передачи сообщений. Основные характеристики факсимильных систем передачи. (2 часа)
- •Скоростью передачи
- •10. Основы цифровых технологий передачи данных. Методы мультиплексирования потоков данных (2 часа)
- •11. Синхронные цифровые сети на основе технологии sdh. Функциональные модули сети sdh. Топология сети sdh. Архитектура сети sdh. Управление сетью sdн. (4 часа)
- •12. Технологии xDsl. Различные типы технологии xDsl. Подготовка кабельной сети к развертыванию xDsl. (4 часа)
- •13. Технология атм. Основные принципы технологии атм. Уровни технологии атм (2 часа)
4. Методы сопряжения источника с дискретным каналом. Основы эффективного кодирования. Метод Шеннона-Фано. Метод Хафмена. (2 часа)
Процедуры, направленные на устранение избыточности в передаваемом сигнале, называются
динамическим кодированием
статистическим кодированием
статическим кодированием
динамическим декодированием
избыточным кодированием
Что такое – основание кода?
длина кодовой последовательности
число символов в алфавите
число информационных символов
число проверочных символов
метод кодирования
Метод, позволяющий отделить одну кодовую комбинацию от другой при неравномерном кодировании.
введение элементов «старт» и «стоп»
введение контрольных разрядов
ведение добавочных разрядов для выравнивания кода
введение стрбоимпульса
пауза между комбинациями
Префиксные коды всегда
однозначно кодируемые
неравномерны
являются корректирующими
однозначно декодируемы
невозможно декодировать
Префиксными кодами называются коды, в которых...
число кодирующих символов одинаково
никакое более короткое слово не является началом более длинного слова
обнаруживаются и исправляются ошибки высокой кратности
кодирующие символы делятся на информационные и корректирующие
кодовые слова делятся без остатка на некоторый многочлен
Постройте код, соответствующий кодовому дереву, изображенному на рисунке:
а1 – 001; а2 – 111; а3 – 0000; а4 – 0001; а5 – 1100; а6 – 1101
а1 – 01; а2 – 10; а3 – 010; а4 – 101; а5 – 100; а6 – 101
а1 – 101; а2 – 011; а3 – 1000; а4 – 1001; а5 – 0100; а6 – 0101
а1 – 01; а2 – 11; а3 – 000; а4 – 001; а5 – 100; а6 – 101
а1 – 001; а2 – 011; а3 – 000; а4 – 001; а5 – 100; а6 – 101
В каком случае код, соответствующий кодовому дереву, изображенному на рисунке будет однозначно декодируемым?
Если правым веткам дерева приписывать «0», а левым – «1».
Ни в каком случае, т.к. соответствующий код не является префиксным
Если левым веткам дерева приписывать «0», а правым – «1».
В любом случае, т.к. соответствующий код – префиксный
Ни в каком случае, т.к. соответствующий код – префиксный
Определите среднее количество символов, приходящихся на одну букву в коде, представленном в таблице.
Буква |
Вероятность |
Код |
а1 |
0.4 |
01 |
а2 |
0.2 |
001 |
а3 |
0.2 |
101 |
а4 |
0.1 |
110 |
а5 |
0.1 |
111 |
2.8
1
2.6
3.7
2.7
Ошибка синхронизации заключается в том, что
если произойдет случайная ошибка, то она распространяется на все последующие сообщения
если произойдет случайная ошибка, то она распространяется на все сообщения
если произойдет случайная ошибка, то она распространяется на все предыдущие сообщения
если произойдет случайная ошибка, то она не распространяется на все последующие сообщения, влияет только на одно сообщение
нет верных вариантов
Ошибкам синхронизации не подвержены...
неравномерные коды
префиксные коды
циклические коды
равномерные коды
блочные коды
Недостатки методов кодирования Хафмена и Шеннона-Фано
большая избыточность кода
неэкономичность
большие задержки во времени
позволяет обнаруживать ошибки, но не корректирует их
возникающая ошибка распространяется на все последующие сообщения и необходимость больших ресурсов памяти при декодировании
Для любого однозначно декодируемого кода должно выполняться условие:
, где
– среднее число двоичных символов в кодовом слове, а Н(А) – энтропия источника сообщений
Н(А)<H0+l, где Н(А) – энтропия источника сообщений, H0 – максимальная энтропия источника, а l – длина кодового слова
, где – среднее число двоичных символов в кодовом слове, а Н(А) – энтропия источника сообщений
, где – среднее число двоичных символов в кодовом слове, а Н(А) – энтропия источника сообщений
, где – среднее число двоичных символов в кодовом слове, а Н(А) – энтропия источника сообщений
Существует однозначно декодируемый код, для которого выполняется условие:
, где – среднее число двоичных символов в кодовом слове, а Н(А) – энтропия источника сообщений
Н(А)<H0+l, где Н(А) – энтропия источника сообщений, H0 – максимальная энтропия источника, а l – длина кодового слова
, где – среднее число двоичных символов в кодовом слове, а Н(А) – энтропия источника сообщений
, где – среднее число двоичных символов в кодовом слове, а Н(А) – энтропия источника сообщений
, где – среднее число двоичных символов в кодовом слове, а Н(А) – энтропия источника сообщений
При любом сколь угодно малом положительном можно найти натуральное число N такое, что среднее число символов на одно сообщение при n>N удовлетворяет условию...
Когда выгодно кодировать не отдельные буквы, а сразу целые блоки по нескольку букв?
Когда выполняется условие
Всегда
Когда количество букв в блоке больше энтропии
Когда количество букв в блоке не больше чем Н(А)+1.
Отдельные буквы кодировать выгоднее, т.к. код получается более экономичным.
Равномерными кодами называются
коды, для которых никакое более короткое слово не является началом более длинного слова
коды, использующие для кодирования каждого сообщения одно и то же число бит
коды, для которых сумма двух кодовых слов является кодовым словом
коды использующие для кодирования каждого сообщения минимальное число битовых символов
префиксные коды
Вероятность неправильного приема кодовой комбинации
простого кода в случае независимых ошибок определяется как ...
, где pпр – вероятность правильного приема единичного элемента, а k – число элементов в комбинации простого кода
, где pпр – вероятность правильного приема единичного элемента, а k – число обнаруживаемых кодом ошибок
, где pош – вероятность неправильного приема единичного элемента, а k – число исправляемых кодом ошибок
, где pош – вероятность неправильного приема единичного элемента, а k – число обнаруживаемых кодом ошибок
, где pош – вероятность неправильного приема единичного элемента, а k – число элементов в комбинации простого кода
Если код используется в режиме исправления ошибок и кратность исправляемых ошибок tи ош, то вероятность неправильного приема
равна...
(рош – вероятность ошибки, pпп – вероятность правильного приема)
Коды, экономичные одновременно для некоторого класса источников, называют
префиксными
равномерными
блочными
циклическими
универсальными
Изохронные дискретные сигналы отличаются от анизохронных тем, что...
для них заранее известна структура ,
для них известны моменты передачи единичных элементов
имеют длительность кратную 0
характеризуются скоростью телеграфирования В
все ответы верны
Анизохронные дискретные сигналы отличаются от изохронных тем, что
имеют длительность кратную 0,
для них заранее известна структура, в частности, моменты передачи единичных элементов
могут иметь любую длительность, но не менее 0
характеризуются скоростью телеграфирования В
все ответы верны
Коэффициент использования синхронного канала определяется отношением
Коэффициент использования синхронного канала зависит от...
энтропии изохронного источника и скорости модуляции в синхронном канале
энтропии изохронного источника, скорости модуляции источника и скорости модуляции в синхронном канале
скорости модуляции источника и скорости модуляции в синхронном канале
энтропии изохронного источника и скорости модуляции в синхронном канале
энтропии анизохронного источника и скорости модуляции в синхронном канале
При каком методе согласования используется импульсная несущая, которая модулируется передаваемым сигналом
метод Хафмена
метод Шеннона-Фано
метод скользящего индекса
метод наложения
универсальный метод
Величина искажений, %, при использовании метода наложения определяется по формуле
Величина искажений, %, при использовании метода скользящего индекса с подтверждением определяется по формуле
Недостатком метода скользящего индекса с подтверждением является
размножение ошибок
возникновение ошибки синхронизации
большие задержки во времени
необходимость больших ресурсов памяти при кодировании
нет правильного варианта
При каком условии применяют «–стаффинг»
скорость модуляции изохронного источника ниже скорости модуляции в синхронном канале Ви<Bc
скорость модуляции изохронного источника выше скорости модуляции в синхронном канале Ви>Bc
скорость модуляции изохронного источника равна скорости модуляции в синхронном канале Ви=Bc
скорость модуляции анизохронного источника выше скорости модуляции в синхронном канале Ви>Bc
скорость модуляции анизохронного источника ниже скорости модуляции в синхронном канале Ви<Bc
При каком условии применяют «стаффинг»?
скорость модуляции изохронного источника ниже скорости модуляции в синхронном канале Ви<Bc
скорость модуляции изохронного источника выше скорости модуляции в синхронном канале Ви>Bc
скорость модуляции изохронного источника равна скорости модуляции в синхронном канале Ви=Bc
скорость модуляции анизохронного источника выше скорости модуляции в синхронном канале Ви>Bc
скорость модуляции анизохронного источника ниже скорости модуляции в синхронном канале Ви<Bc
Стартстопные сигналы относятся к сигналам...
несущим
изохронным
анизохронным
с неизвестной структурой
с известной структурой
Определить величину коэффициента использования синхронного канала в случае применения метода наложения Ви=100 Бод, Вс=1000 Бод, в процентах
0.1
10
100
0.01
1
Определить величину коэффициента использования синхронного канала в случае применения метода скользящего индекса с подтверждением (СИП) Ви=100 Бод, Вс=1000 Бод, число зон – 3, в процентах.
0,625
1,25
12,5
6,25
625