
- •Виды связи, используемые на транспорте
- •2 Обобщенная структурная схема системы передачи информации, назначение блоков, принцип работы
- •3 Формы и параметры сообщения. Скорость передачи сообщения. Достоверность сообщения.
- •4 Формы и параметры сообщения. Кодирование передаваемых сообщений.
- •5 Классификация сигналов. Математические модели сигналов и их характеристики.
- •6 Энергия и мощность сигнала.
- •7 Спектральный анализ периодических сигналов. Условия Дирихле. Ряд Фурье.
- •8 Спектральный анализ непериодических сигналов. Преобразование Фурье. Равенство Парсеваля.
- •9 Представление непрерывных сигналов выборками. Теорема Котельникова. Влияние частоты дискретизации на возможность восстановления сигнала с помощью фильтра.
- •10 Процесс интерполяции непрерывного сообщения. Простейшие виды интерполяции алгебраическими полиномами.
- •11 Корреляционный анализ. Корреляционная функция, ее свойства. Вычисление корреляционной функции одиночного импульса и периодического сигнала.
- •12 Дискретные источники информации. Основные характеристики дискретных источников.
- •13 Свойства энтропии. Энтропия непрерывного источника информации.
- •14 Характеристики дискретных каналов связи.
- •15 Характеристики аналоговых каналов связи.
- •16 Физический объем сигналов и каналов связи.
- •17 Взаимная корреляционная функция, ее свойства. Вычисление взаимной корреляционной функции сигналов.
- •18 Случайные процессы. Реализация случайного процесса. Законы распределения случайных процессов
- •19 Статистическое кодирование. Кодирование алфавита источника информации кодом Фано-Шеннона и Хаффмена. Избыточность, коэффициент сжатия и информативность сообщений.
- •20 Помехоустойчивое кодирование. Повышение верности в одностороннем и двустороннем каналах передачи.
- •21 Аналоговые виды модуляции. Фазовый модулятор.
- •22 Аналоговые виды модуляции. Частотный модулятор.
- •23 Аналоговые виды модуляции. Детекторы фазомодулированных колебаний.
- •24 Аналоговые виды модуляции. Детекторы частотно-модулированных колебаний.
- •25 Блочные систематические коды, свойства и способы представления.
- •26 Коды Хэмминга, свойства. Структурная схема кодера и декодера, принцип работы.
- •27 Общие свойства и способы представления циклических кодов. Алгоритм функционирования системы передачи, использующей циклический код.
- •28 Модуляция сигналов. Разновидности носителей сообщений, временная и спектральная характеристики. Классификация видов модуляции.
- •29 Аналоговые виды модуляции. Амплитудная модуляция. Амплитудно-модулированное колебание, временная и спектральная характеристики.
- •30 Цифровые виды модуляции. Погрешность квантования. Закон компандирования.
- •31 Цифровые виды модуляции. Аналого-цифровой преобразователь.
- •32 Цифровые виды модуляции. Цифро-аналоговый преобразователь.
- •33 Преимущества и недостатки цифровых методов передачи.
- •34 Структурная схема измерительного преобразователя с цифровым выходом.
- •35 Аналоговые виды модуляции. Амплитудный модулятор.
- •37 Аналоговые виды модуляции. Угловая модуляция. Временные характеристики фазомодулированных и частотно-модулированных колебаний. Индекс фазомодулированного колебания и девиация фазы.
- •38 Модуляция шумоподобных сигналов-переносчиков. Структурная схема приемника шумоподобных сигналов.
- •39 Принципы построения многоканальных систем передачи. Теоретические предпосылки разделения каналов. Временное разделение каналов.
- •40 Современные технологии использования частотных признаков.
- •41 Современные технологии использования временных признаков.
- •42 Современные технологии использования кодовых признаков.
- •43 Сигнально-кодовые конструкции.
- •44 Спектры фазомодулированных и частотно-модулированных колебаний.
- •45 Аналого-импульсные виды модуляции. Амплитудно-импульсная модуляция: аим-1 и аим-2. Модуляторы и демодуляторы аим сигналов.
- •46 Широтно-импульсная модуляция: шим-1 и шим-2. Спектральное представление шим - сигнала. Модуляторы шим - сигналов.
- •47 Фазо-импульсная модуляция. Модуляторы фим-сигналов.
- •48 Частотно-импульсная модуляция. Детекторы чим-сигналов.
- •49 Цифровые виды модуляции. Импульсно-кодовая модуляция. Дискретизация, квантование и кодирование.
- •50 Дифференциальная икм. Структурная схема системы передачи с предсказанием. Структурная схема линейного предсказателя, принцип работы. Адаптивная дифференциальная икм.
- •52 Дискретные виды модуляции. Способы двухпозиционной (однократной) модуляции. Позиционность сигнала.
- •53 Модуляция шумоподобных сигналов-переносчиков. Структурная схема передатчика шумоподобных сигналов.
- •54 Принципы построения многоканальных систем передачи. Теоретические предпосылки разделения каналов. Частотное разделение каналов.
12 Дискретные источники информации. Основные характеристики дискретных источников.
Источники сообщений явл-ся дискретными, если множество сообщений, которое может быть им создано конечно или по крайней мере счётно.
Основные характеристики:
1.Алфавит
,
-
знаки алфавита,
-
вероятность появления на выходе источника
2.Скорость передачи, [B] – имп/с
3.Энтропия Н – кол-во информации, содержащееся в среднем в одном знаке сообщения
Энтропия полностью определяется з-ном распределения вероятности появления знаков на выходе источника, при этом не важно какие именно знаки может вырабатывать источник, важно только кол-во разновидностей этих знаков и вероятности их появления. 1-ца кол-ва информации (то кол-во инфы, которое переносит 1 знак двоичного алфавита, если знаки равновероятны и взаимонезависимы на выходе источника) – двоичная или бит.
Если
знаки на выходе к-значного источника
инфы встречаются равновероятно и
взаимонезависимо, то кол-во инфы,
переносимое одним знаком максимально
Если
неравновероятно …
Если
неравновероятно и взаимозависимо …
,
-
вероятность появления буквы i
после буквы k
13 Свойства энтропии. Энтропия непрерывного источника информации.
1Э. явл. непрерывной неотриц. ф-цией. P(ak) k=2
P(a1)=
Pa
, P(a2)=1-p,
H(A)=-Plog2P-(1-p)
log2(1-p)
2Э. равна 0 тогда и только тогда, когда вероятность одного из состояний источника =1. =>все остальные вероятности = 0.
3Э. макс., когда все состояния источника равновер. P(a1)= P(a2)=..= P(ak)=1/k, Нмах= log2k
4Э.
сложного сигнала, полученного объединением
двух независимых сигналов равна ∑
энтропий кажд. из сигналов. Под объединением
двух сигналов Х и Y
с возможными состояниями x1,x2,..,xk
и y1,y2,..,yi
понимается сложный сигнал (X,Y),
состояние которого (xk,yi)
представляет собой все возможные
комбинации состояния сигналов X,Y.
Число возможных состояний сложн. сигнала
= k*i
где
-
вероятность появления сигнала xk.
-
условная вероятность того, что сигнал
Y
будет находиться в состоянии yi
при условии, что сигнал Х принял состояние
xk.
Для независимых сигналов:
Э.
объединённого сигнала
5Э. сложного сигнала, полученная объединением двух независимых сигналов
Непрерывные сообщения источника или соответствующие им сигналы отличаются тем, что за конечное время Т они могут принимать бесконечное число возможных значений, т.е. ансамбль источника бесконечен. Ккак следствие вероятность появления отдельного знака (по аналогии с дискретным источником ) бесконечно мала, а его информативность бесконечно велика.
Разделим область изменений Х на дискретные уровни с малым интервалом между ними ∆х (рис.3). ∆х – шаг квантования (дискретизации) непрерывного сигнала по уровням. Вероятность того, что значение Х лежит в пределах интервала хi.. хi+∆х, приблизительно равна Рi=w(хi) ∆х, где w(хi) - значение плотности вероятности в точке хi.
Положим в дальнейшем, что отдельные
отсчёты сигнала (сообщения) независимы,
а их распределение не зависит от времени
(стационарный источник). Тогда можно в
соответствии с формулой
написать следующее выражение для
энтропии на один независимый отсчёт
квантованного сигнала:
Устремив ∆х →0 для перехода к энтропии
на один отсчёт непрерывного сигнала и
учитывая, что
получим
Т.о., энтропия непер. источника сообщ.
(за счёт члена
)
стремится к бесконечности. Отсюда
следует, что непрерывные сигналы не
допускают введения конечной абсолютной
меры неопределённости. Степень их
неопределённости характеризуют
дифференциальной энтропией (по связи
с дифф. законом распределения вероятностей):
В отличие от энтропии дискретного
источника,
может принимать как положительные и
нулевые, так и отрицательные значения,
а также изменяться в зависимости от
масштаба переменной х.
Дифференциальная энтропия позволяет
сравнивать информативность случайных
сигналов, имеющих различные распределения,
относительно некоторого стандарта.
Стандартом для сравнения является
случайный сигнал, имеющий равномерное
распределение в единичном интервале
(b)-a=1, для
которой
Дифф. энтропия показывает, насколько
энтропия данного непрерывного сигнала
отличается от энтропии непр. случайного
сигнала с равномерным законом распределения
в единичном интервале. С помощью дифф.
энтропии производится вычисление
качества информации, содержащейся в
непр. сообщ.