
- •1. Представление о сети телекоммуникаций. Обобщенная функциональная схема сети телекоммуникаций.
- •2. Понятия сообщения и информации. Основные свойства информации.
- •3. Понятия об источнике информации. Процесс генерации информации.
- •4. Основные свойства источника информации. Основные характеристики источника информации.
- •5. Количественное измерение информации.
- •6. Процесс интерпретации информации. Алфавит – средство интерпретации информации. Информационные характеристики алфавита.
- •7. Понятие энтропии. Экстремальное значение энтропии.
- •8. Характеристики точности представления первичного сигнала.
- •9. Понятие производительности источника. От чего зависит производительность источника.
- •10. Цифровое представление первичного сигнала. Простейшее цифровое представление первичного сигнала.
- •11. Основные шумы и помехи, действующие в телекоммуникационной системе.
- •12. Посимвольная передача и прием цифровых сигналов, передача и прием цифровых сигналов по блокам. Средняя вероятность ошибочного приема блока.
- •13. Оптимальные посимвольные передача и прием цифровых сигналов.
- •14. Оптимальные передача и прием цифровых сигналов в целом.
- •15. Процессы модуляции и демодуляции. Их назначение и основные варианты реализации.
- •16. Виды и причины избыточности первичного сигнала.
- •17. Представление о кодировании канала, общие принципы его реализации.
- •18. Простейший процесс кодирования и декодирования линейного блочного систематического кода.
- •19. Сущность компромисс в ткс между поэлементной передачей и приемом и передачей и приемом в целом.
- •20. Задача к. Шеннона по определению оптимального варианта построения ткс, основные полученные результаты.
- •21. Назначение и состав устройств синхронизации в ткс.
- •22. Обратная связь в ткс, назначение и принцип реализации.
- •23. Информационная обратная связь.
- •Система с информационной ос:
- •24. Решающая обратная связь.
- •Система с решающей ос:
- •25. Уплотнение каналов, общие принципы формирования группового сигнала и разделения каналов.
- •26. Представление об организации радиодоступа к общим ресурсам.
- •27. Представление об уменьшении логической избыточности в процессе кодирования источника.
- •28. Уменьшение статистической избыточности в процессе кодирования источника.
- •29. Процессы экстраполяции и интерполяции при кодировании источника.
- •30. Методы уплотнения каналов. Подсистема уплотнения и разделения каналов
- •31. Временное уплотнение каналов.
- •32. Частотное уплотнение каналов.
- •33. Уплотнение каналов по форме поднесущих сигналов.
- •34. Основные виды сигналов, используемых в ткс.
- •35. Импульсно-временные сигналы. Ортогональные в точке сомкнутые составные сигналы.
- •36. Псевдошумовые и частотновременные сигналы.
- •37. Общая задача кодека канала и модема радиолинии.
- •38. Представление о функционировании ткс с незакрепленными каналами.
- •39. Определение целесообразности использования помехоустойчивого кодирования.
- •40. Краткая классификация помехоустойчивых кодов. Наиболее широко применяемые помехоустойчивые коды.
- •41. Обнаруживающая и корректирующая способность кода.
- •42. Модем с аМн несущего сигнала.
- •43. Модем с чМн несущего сигнала.
- •44. Модем с фМн несущего сигнала.
- •45. Представление о модеме с относительной фМн.
- •Функциональная схема модулирующей части модема
- •3.6.1.6. Функциональная схема автокорреляционного приемника
- •46. Функциональная схема и принцип работы Вокодера.
- •47. Обобщенная функциональная схема ткс. Назначение основных подсистем.
- •48. Представление о дуплексной ткс.
- •49. Основные варианты архитектуры тк сетей.
- •50. Эталонная модель взаимодействия открытых сетей.
- •51. Маршрутизация и коммутация информационных потоков в тк сетях.
7. Понятие энтропии. Экстремальное значение энтропии.
Статистическая устойчивость – среднее количество информации, которое представлено каждой буквой алфавита и умноженное на количество букв.
Среднее
количество информации, представляемых
каждой буквой алфавита, называется
энтропией алфавита. Если все буквы
статистически независимы, то
- среднее количество информации,
представляемое каждой буквой при том,
что все буквы статистиически независимы.
,
где
- объем информации, представляемый
текстом, а
- общее количество букв в тексте. При
разном наборе букв энтропия будет
различной. Если мы не учитываем пробелов.
Свойство полной группы событий (условие нормировки):
.
Наличие статистических зависимостей между буквами уменьшает энтропию, которая тем меньше, чем больше статистическая зависимость.
8. Характеристики точности представления первичного сигнала.
Не все множество значений являются информацией, а только те значения, которые являются различимыми.
Они задаются той точностью воспроизведения и знания параметров, необходимых для того, чтобы использовать этот параметр для целенаправленных действий.
- ошибка (различие).
Если величина ошибки приемлема для
потребителя, тогда все в порядке. Оценка
сигнала получается потому, что не все
значения мы представляем потребителю
и по этой части значений мы воспроизводим
вид параметра.
Количественные показатели величины ошибки для её определения.
Используют числовые статистические характеристики ошибки представления параметра Yj(t). Существуют 2 варианта представления:
Мощностная (если Yj(t) преобразуем в характеристику ЭМ поля)
-
второй
начальный момент ошибки (первый начальный
момент ошибки – это мат. ожидание).
*Если
преобразовать в какую-либо характеристику
(например, мощность), то
-
мощность, которая выделяется единичным
током в единичном сопротивлении.
– дисперсия,
мощность переменной составляющей
ошибки;
-
мощность постоянной составляющей
ошибки;
- относительная среднеквадратическая
ошибка;
– динамический диапазон (разность
наибольшего и наименьшего значений).
Интервальная
оценка ошибки (вероятность того, что
величина
не превысит допустимого значения)
Потребитель с учетом разрешающей способности задает допустимую величину ошибки.
9. Понятие производительности источника. От чего зависит производительность источника.
Производительность источника информации.
В силу того, что параметр, содержащий информацию, представляет собой непрерывную функцию, характеризующуюся 2-мя бесконечностями, представляющие для нас бесконечны объем информации в единицу времени, если не учитывать логическое свойство информации. Но как только мы учли это свойство мы понимаем, что не все значения параметра содержат информацию. Количество информации зависит от той точности, с которой необходимо воспроизвести параметр потребителю. Существует такой min объем информации в единицу времени, который необходим потребителю для воспроизведения информационного параметра с точностью, которая необходима ему (с точностью, которую он может использовать). Это является реальной скоростью генерации информации.
- эпсилан-энтропия.
Эта величина зависит от точности,
требуемой потребителем.
Чем
больше точность, тем больше производительность
источника (т.е. больше
).
Если зафиксировать точность, то количество
информации зависит от того, как меняется
состояние системы. Чем быстрее меняется
состояние системы при той же точности,
тем больше нужно количества информации
в единицу времени для воспроизведения
параметра, тем больше производительность
источника. Имеет смысл до транспортировки
параметра потребителю выделить то
множество дискретизированных значений,
которое минимально необходимо потребителю.
Этот процесс множества дискретизированных
значений по уровню называется цифровым
представлением информационного параметра