
- •2.Помехи
- •3.Сигналы и их формирование
- •4.Кодирование и модуляция
- •5.Достоверностьи скорость передачи
- •6. Математические модели сигналов, каналов и помех.
- •7. Тригонометрический ряд Фурье.
- •8.Аналитический сигнал.
- •9.Расчет средней мощности и практической ширины спектра модулирующего сигнала
- •10.Функция отсчетов
- •11. Расчет графиков спектров при аналоговой модуляции
- •12. Графики спектров при импульснойй модуляции
- •Импульсная несущая
- •13.Теоремы о спектрах
- •14.Сигналы и помехи как случайные процессы
- •15. Статистические характеристики. Флуктуационные помехи.
- •16.Функция корелляции
- •17.Энергетический спекрт случайного процесса
- •18.Прохождение случайного процесса через линейные и нелинейные системы.
- •19.Интервал Корреляции.
- •20. При приеме сигналов решают 3 задачи:
- •21.Критерий идеального наблюдателя.
- •22. Прием сигналов как статистическая задача
- •23. Методы регистрации сигналов для когерентного приема (на примере приема двоичного сигнала, т.Е. )
- •Комбинированный (мажоритарный) метод.
- •24. Критерий Неймана-Пирсона.
- •25. Корреляционный приём.
- •27.Комплексный ряд Фурье.
- •29. Равенство Парсеваля
- •Выражение (3) можно переписать следующим образом
- •32.Приём сигналов известной формы на согласованный фильтр.
- •33. Автокорреляционный приём.
- •34.Энтропия
- •35. Количественная мера информации.
- •36. Условная энтропия
- •37.Скорость передачи
- •39. Оптимальная фильтрация (оф) непрерывных сигналов.
- •40. Помехоустойчивое кодирование
- •41. Геометрическое представление сигналов и помех.
- •42.Интегральный прием.
- •43.Циклические (n, k) коды
- •44.Критерий минимума среднего риска.
- •45. Критерий идеального наблюдателя.
- •46.Стационарные случайные процессы
- •47. Корреляционный прием.
- •50. Мультипликативная помеха
- •51.Статистические параметры
35. Количественная мера информации.
Центральная проблема теории информации - это выбор меры информации. Будем рассматривать дискретный источник с четным множеством своих сочетаний.
Такой источник считается заданным, если задан ансамбль состоянии:
и обязательно должны быть заданы априорные вероятности этих состояний, каким способом мы их задаем не имеет значения ):
,
где
- число возможных состоянии,
- длина).
При
- никакого выбора нет, источник находится
в состоянии 1 (ничего нового не несет).
- предложенная мера не обладает свойством
аддитивности, т.е. не обладает свойствами
линейно возрастать. Было замечено, что
количество информации в сообщении
вырабатывающего источника зависит от
вероятности этого сообщения. Из
соображения здравого смысла, менее
вероятное событие несет больше количества
информации.
события.
-
заданные вероятности.
Клод Шеннон вывел эту зависимость.
Если
задан источник
,
то
- Хартли. Основание логарифма принципиальной
меры не имеет:
,
десятичная единица, (дит);
,
натуральная единица, (нат);
,
двоичная единица, (бит) - количество
информации которое вырабатывает источник
с двумя возможными состояниями.
К. Шеннон предложил оценивать количество информации содержащееся в сведении о состоянии двоичного источника с равновероятными состояниями:
Было
замечено, что количество информации в
сообщении, вырабатываемом источником,
зависит от вероятности этого сообщения.
Менее вероятное событие несет большее
количество информации. Если имеется
тогда
- эту зависимость вывел Клод Шеннон.
36. Условная энтропия
Энтропия, учитывающая статистическую зависимость между символами, называется условной и находится по формуле
[бит/сообщ]
где
-
условная частная энтропия, вычисляемая
для каждого символа
.
Для расчета условной энтропии по формулам
необходимо использовать переходные
вероятности
.
Как следует из вышесказанного, между
условной энтропией и безусловной
энтропией должно соблюдаться неравенство
).
По сравнению с безусловной энтропией, условная энтропия учитывает более тонкую структуру вероятностных свойств источника, поэтому, является более точной характеристикой источника.
37.Скорость передачи
– среднее количество информации передаваемое в единицу времени.
где - энтропия – среднее количество информации, вырабатываемое источником (т.к. источник передает информацию не с постоянной скоростью).
- среднее время передачи элементарного сообщения .
где - длительность сообщения,
- вероятность сообщения.
Скорость передачи измеряется в Бодах: 1 Бод = 1/1сек
Для обеспечения заданной скорости передачи необходимо соблюсти условие:
,
где – пропускная способность канала – максимальное среднее количество информации, предаваемое в единицу времени.