- •Государственное образовательное учреждение высшего профессионального образования кгту
- •Теория информации
- •Учебное пособие
- •Аннотация.
- •Введение.
- •Если говорить немного подробнее, можно выделить:
- •Уровень элементарных частиц;
- •Линия связи
- •(Укрупнённая структурно-функциональная схема)
- •1 Сообщение
- •Общие замечания
- •Источники информации
- •Событие, как источник информации
- •1.2.2. Материальная система, как источник информации.
- •1.2.3 Одиночный параметр состояния, как источник информации
- •Основные характеристики источника информации
- •1.3.1 Объём первичного алфавита
- •1.3.2 Энтропия источника информации
- •1. 4 Языки, коды и их свойства
- •1.4.1 Естественные коды
- •1.4.2 Вторичные коды и их свойства
- •1.4.2.1 Коды с вероятностными ограничениями
- •1.4.2.2 Коды с фиксированными ограничениями
- •1.5 Структура сообщений
- •1.5.1 Дискретная числовая последовательность
- •1.6 Первая теорема к. Шеннона о кодировании
- •Формулировка и доказательство
- •Практические методы оптимального кодирования
- •Метод Шеннона-Фано
- •Метод Хаффмена
- •2.1 Начальные сведения о сигналах
- •2. 2 Актуализация непрерывных сигналов
- •2.2.1 Непрерывные технические сигналы
- •Математические модели непрерывных сигналов
- •Описание детерминированных сигналов
- •2.4.1.1 Временное представление непрерывного сигнала
- •2.4.1.2 Частотное представление непрерывного сигнала
- •2.4.1.2.1 Непрерывные преобразования Фурье
- •Ряды Фурье
- •2.4.2 Представление реальных сигналов
- •2.4.3 Теоремы Котельникова
- •Теорема Котельникова для функций с ограниченным спектром
- •2.4.3.2 Теорема Котельникова для функций, заданных на конечном интервале.
- •2.6 Некоторые следствия и полезные соотношения
- •2.6.1 Преобразования координат
- •Квадратичный эффект
- •2.6.3 Об аддитивности квадратичного эффекта
- •2.6.3 Описания и наглядные способы отображения сигналов
- •Потенциальный носитель сигналов первого типа
- •Потенциальный носитель сигналов второго типа
- •2.6.3.3 Потенциальный носитель сигналов третьего типа
- •X(t) Слева на рисунке представлен
- •Спектр и полоса пропускания
- •2.6.4 Средства и способы описания случайных сигналов
- •2.6.4.1. Начальные сведения о случайных функциях
- •2.6.4.2. Свойства и дополнительные характеристики ансамбля
- •2.6.4.3. Спектры случайных функций
- •3.1 Непрерывное распределение вероятностей
- •3.3.1 Пример 1
- •3.3.1 Пример 2
- •3.3.2 Максимальная энтропия из возможных
- •4.1 Общие сведения о шумах
- •4.2 Классификация помех
- •4.5.3. Способы описания помех.
- •4.4. Эргодический шум.
- •3.1 Общие соображения
- •3.1.2 Энтропия суммы двух ансамблей
- •3.1.3 Пропускная способность реального канала.
- •3.1.3.1 Взаимная информация двух ансамблей
- •3.1.3.3 Скорость передачи информации
- •3.1.5.1 Вторая теорема Шеннона о кодировании.
- •Входной алфавит. Выходной алфавит
- •3.3 Некоторые аспекты использования каналов
- •3.3.1 Модуляция
- •3.3 .2 Амплитудная модуляция
- •3.3.3 Угловая модуляция.
- •3.4.2 Теоретические основания
- •3.4.2.1 Временное разделение каналов.
- •3.4.3.1 Амплитудное разделение каналов.
- •3.4.3.2 Частотное разделение каналов
- •3.4.3.3 Фазовое разделение каналов.
- •1 Некоторые понятия из теории вероятностей
- •Случайность и её мера
- •Понятие ансамбля
- •1.3 Составные ансамбли и условные вероятности
- •1.3.2. Центральная предельная теорема
- •3 Корреляция
- •3.1 Общие сведения
3.1.3.1 Взаимная информация двух ансамблей
Справа в выражении Ii (j) = log{[pij]/[pj pi]} мы имеем симметричную относительно индексов i и j дробь, что означает её независимость от переста- новки этих символов и такую же независимость формулы, вообще. Это, в свою очередь означает Ii(j) = log{[pij]/[pj pi]} =Ij(i) или Ii(j) =Ij(i). В
упрощённой, независимой от роли (смысла) символа, форме это можно представить так: I (ij) =I (ji).
Этот интересный в теоретическом плане результат, означает, что в символе yj одного ансамбля содержится столько же информации о символе xi другого ансамбля и наоборот. Потому и называется эта информация взаимной.
Применительно к каналу это выглядит равенством вероятности принять символ yj при передаче символа xi и вероятности того, передавался символ xi, если был при принят символ yj. Следовательно, pj(i) = pi (j) .
В практическом плане больший интерес представляют не такие вот «индивидуальные» для каждого символа показатели, а характеристики канала в целом. Такие характеристики можно получить известными методами усреднения – методами оценки математического ожидания на множестве таких «индивидуальных» показателей. В нашем случае речь идёт о множестве возможных сочетаний мощностью iхj.
В соответствии с правилами нахождения математического ожидания, производим суммирование по двум индексам – по всем возможным сочетаниям i и j.
Ii(j) = log{[pij]/[pj pi]} = log[pij] – logpj – log pi] =
(учитываем, что logpij = logpi+ logpj(i), ибо pij = pi pj (i), что
тоже учитываем в первом же слагаемом)
= pi pj (i)logpj (i) + logpi –logpi –logpj =
(далее учитываем = pi и обозначим:hj(i)= pj (i)logpj(i)
= pihj(i) –pjlogpj = Н(j)– Нi(j). Здесь учено ещё, что
Н(j) = –pj logpjи впервые обозначено
Нi(j) = –pipj (i)logpj (i). (III. 3)
Таким образом, мы получили выражение для оценки количества взаимной информации во взаимосвязанных исходных ансамблях, которое применительно к каналу позволяет вычислить среднее количество информации, проходящей через канал помехами с каждым поданным на его вход символом исходного алфавита:
I(ij) = I(ji) =Ii(j) = Н(j) – Нi(j). (III. 4)
3.1.3.2 Условная энтропия дискретных ансамблей
Применительно к абстрактным объёдинениям ансамблей типа {xiyj} величина I (ij) =I(ji) = Н(j) – Нi(j) называется взаимной информацией двух исходных ансамблей друг относительно друга. Величина Нi(j) (нам она до сих пор не встречалась) представляет собой усреднённую на всём множестве парных сочетаний типа (xiyj)k, частную энтропию hj(i)= –pj(i)logpj(i), которая сама по себе (ещё не усреднённая) характеризует разнообразие по индексу j подмножества таких сочетаний с одинаковым индексом i.
Усреднённая частная энтропия Нi(j) = –pj(i)logpj(i) уже не является характеристикой такого подмножества, она теперь является характеристикой объёдинённого ансамбля типа {xiyj} в целом (множества возможных сочетаний типа (xiyj)k). Называется эта новая характеристика условной энтропией объединённого ансамбля. У объединённого ансамбля таких параметров столько же, сколько исходных ансамблей он в себя вобрал.
В данном случае существует ещё Нj(i) = –pj pi(j)logpi(j)
(наряду с Нi(j)= –pipj(i)logpj(i)), выражение для которой можно получить только что продемонстрированным способом из того же самого симметричного соотношения Ii(j) =log{[pij]/[pj pi]}, заменив в самом начале не произведением pij = pi pj(i), а равноценным ему: pij = pj pi (j).
В итоге можно получить соотношение:
I (ij) = Н(i) – Н j(i). (III. 5)
Существование пары соотношений:
I (ij) = Н(i) – Н j(i) и I (ji) = Н(j) – Нi(j) позволяет при расчетах, когда это полезно, заменять одно такое выражение другим.
Далее внимательно приглядимся к выражению для условной энтропии, например Нi(j) = –pipj (i)logpj (i)
Если возвратиться к соотношениям:
pij = pi pj (i), и logpj (i) = logpij – logpi , то
Нi(j) = –pij log pij +pij logpi. Учитываем, что
pij = pi и pijlogpi =pilogpi = – Н(i), а –pijlogpij = Н(ij).
Окончательно имеем: Нi(j) = Н(ij) – Н(i). (III. 6)
Начав аналогичные преобразования с Нj(i), мы могли бы получить.
Нj(i) = Н(ij) –Н(j). (III. 7)
Оба эти соотношения могут быть представлены в другой форме:
Н(ij) = Нj(i) + Н(j) (III. 8)
и Н(ij) = Нi(j) + Н(i). (III. 9)
Сопоставим это с полученным выше неравенством Н(ij)Н(i)+Н(j), например, отнимем (столбиком) от него поочерёдно каждое их этих соотношений.
Н(ij)Н(i) + Н(j). Н(ij)Н(i) + Н(j).
– [Н(ij) = Н(j)+ Н j(i)]. – [Н(ij) = Нi(j) + Н(i) ]
=0 Н(i) – Н j(i) = 0 Н(j) – Нi(j)
Н(i) Н j(i) Н(j) Нi(j)
Совместно с выражениями I(ij)= Н(i) – Нj(i) и I(ji)=Н(j)–Нi(j), представленные неравенства говорят о том,
- что источником взаимной информации являются разнообразия исходных ансамблей и связи между их;
- что при отсутствии взаимных связей между элементами исходных
ансамблей (когда Н(ij)=Н(i) + Н(j) и Н(i) = Н j(i) – никакой взаимной информации быть не может, ибо
I (ji) = Н(j) – Нi(j) = Н(i) – Н j(i) = I (ji) =0;
- что с появлением и постепенным ростом упомянутых выше взаимных связей количество информации в каждом элементе одного ансамбля об определённом элементе другого ансамбля возрастает.
В применении к каналу всё сказанное легко интерпретируется и означает:
- что в какой-то момент времени помехи в канале велики на столько, что ансамбль символов на выходе абсолютно не реагирует на репертуар входа (Н(j) Нi(j)), и выходной репертуар полностью определяется самим каналом,
- что количественной мерой этого исходного разнообразия оказывается условная энтропия Нi(j));
что с уменьшением уровня помех некоторые входные символы
проходят канал без искажений (появляется
I (ji) = Н(j) – Нi(j) = Н(i) – Н j(i) = I (ji), которая вносит в репертуар
на выходе большую долю определённости)
- что с резким уменьшением помех ансамбль выходных символов канала все больше и больше становится похожим на ансамбль входных символов, а (I(ji) растёт, приближается к энтропии входного ансамбля Н(i) и репертуар выхода начинает дублировать репертуар входа).