Добавил:
Студент, если у тебя есть завалявшиеся работы, то не стесняйся, загрузи их на СтудентФайлс! Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ТПС ЭКЗАМЕН.docx
Скачиваний:
32
Добавлен:
10.04.2022
Размер:
10.29 Mб
Скачать

18. Типы дискретных источников информации, их характеристики. Количество информации в букве сообщения при равновероятности и взаимной независимости букв. Единицы количества информации.

Существует 3 вида ДИИ:

  • ДИИ, буквы которого равновероятны и взаимонезависимы (не существует в реальности)

  • ДИИ, буквы которого неравновероятны и взаимонезависимы

  • ДИИ, буквы которого неравновероятны и взаимозависимы

Количество информации в букве сообщения при равновероятности и взаимной независимости букв:

[бит], где N – это количество букв в алфавите,

– вероятность появления буквы

19. Количество информации в букве сообщения при неравновероятности и взаимной независимости букв. Мера количества информации.

25) Теорема Шеннона о пропускной способности дискретного канала с шумами. Способы повышения верности передачи информации.

1 (вроде говорится о теореме Шеннона-Хартли) Пропускная способность канала C, на которой можно передать данные при средней мощности сигнала S через аналоговый канал связи, подверженный аддитивному белому гауссовскому шуму мощности N равна:

где B – полоса пропускания канала Гц.

2 Если скорость передачи сообщений меньше пропускной способности канала связи, то существуют коды и методы декодирования такие, что средняя и максимальная вероятности ошибки декодирования стремятся к нулю, когда длина блока стремится к бесконечности.

Основной способ повышения верности – введение в передаваемую последовательность избыточности с целью обнаружения и исправления ошибок в принятой информации.

Для повышения также используют корректирующие коды, исправляющие ошибки. Структура кода и его исправляющие возможности рассчитываются для некоторого идеализированного канала с известной статистикой ошибок. Использования корректирующего кодирования воздействует и на способ передачи, и на способ приема.

26) Энтропия непрерывного источника информации.

Энтропия непрерывного источника информации бесконечна, так как неопределенность выбора из бесконечного числа возможных состояний бесконечно велика.

27) Объем непрерывного сигнала, объем канала. Способы деления объема канала, системы передачи информации.

1

Vc – объем непрерывного сигнала, Vk – объем канала, – длительность сигнала, – ширины спектра, – превышения средней мощности сигнала над помехой, – время передачи канала для отправителя, – ограниченная полоса частот, – допустимый диапазон изменения мощности.

2 Делить объем можно по: по f – системы с ЧРК (частотное разделение канала); по t – системы с ВРК (временное разделение канала); деление по d (мощности) не производят, так как сигналы с большей мощностью будут являться помехами для сигналов с меньшей; системы с кодовым разделением канала – сигналы имеют одинаковую мощность и, присвоенный каждому сигналу отдельно, уникальный идентификатор.

Соседние файлы в предмете Теория передачи сигналов