Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Informatika (1).doc
Скачиваний:
0
Добавлен:
01.04.2025
Размер:
2.69 Mб
Скачать
  1. Условная вероятность и условная энтропия. Условная вероятность

Условная энтропия

Совместная и условная энтропия связаны равенством

H (XY) = H (X) + H (Y | X)

Условная энтропия не больше безусловной, потому что добавление ограничений уменьшает неопределенность

H (Y | X) <= H (Y)

H (X | Y) <= H (X)

Следовательно: H (XY) <= H(X) + H(Y)

  1. Взаимная информация. Потери информации от помех. Избыточность.

I(X,Y) = H(Y) - H(Y | X) >=0

Симметрично I(X,Y) = H(X) - H(X | Y).

Взаимная информация – мера снятой неопределенности при получении сообщений Y

Таким образом, имеет место полная симметрия между X и Y H (XY) = H(X) + H(Y | X) = H(Y) + H(X | Y)

I (X,Y) = H(X) - H(X | Y) = H(Y) - H(Y | X)

H(XY) = H(X) + H(Y) – I(X,Y)

Если X и Y независимы, то H(Y | X) = H(Y) и H(X | Y) = H(X), значит, I(X,Y) = 0 и H (XY) = H(X) + H(Y)

В теории информации избыточность означает, что количество информации в сообщении меньше чем объем используемого алфавита

От избыточности можно избавиться, применяя эффективное кодирование, объем сообщения при этом уменьшается

При передаче по каналу связи с помехами, наоборот, добавляют проверочные символы для обнаружения ошибок, увеличивая избыточность

  1. Информационные характеристики дискретных источников.

Без памяти:

С памятью:

  1. Цепи Маркова. Характеристики Марковских источников.

Математической моделью ДИСП является цепь Маркова, Это последовательность состояний S[1], S[2],…,S[n],…, каждое из которых принадлежит множеству {S1, S2,…,Sm}, и заданные вероятности перехода πn2n1(j2 | j1) = P(S[n2]=Sj2 | S[n1] = Sj1)

Они должны удовлетворять следующим свойствам:

Стационарный источник – источник, у которого совместные вероятности последовательностей букв не зависят от начала отсчета.

Эргодичный источник – если по одной достаточно большой реализации можно судить о всех возможных реализациях.

Информационные характеристики дисп

  1. Теоремы об эффективном кодировании.

  • Цель эффективного кодирования – уменьшить избыточность источника

  • Каждому символу однозначно соответствует последовательность из 0 и 1 (кодовое слово)

  • Чем больше вероятность появления символа, тем меньше длина соответствующего кодового слова

  • Наиболее эффективно кодирование больших блоков информации, но оно и более трудоемко

  • Целесообразно обеспечить однозначное декодирование без дополнительных разделительных символов

Теорема кодирования 1

Теорема кодирования 2 (с док-вом и выводом)

  1. Метод Хаффмана и другие методы сжатия данных.

Недостатки метода Хаффмана

  • Различные длины кодовых слов приводят к неравномерным задержкам при пересылке и декодировании

  • Снижение избыточности приводит к тому, что один неправильный бит означает неправильность всех последующих символов

  • На практике очень редко известны точные вероятности, что снижает эффективность.

Другие методы сжатия данных

  • Сжатие с потерей несущественной информации (MPEG)

  • Адаптивные алгоритмы (вероятности меняются по мере накопления статистики)

  • Динамические алгоритмы (Лемпеля-Зива) со словарем часто встречающихся последовательностей

  • Арифметическое кодирование (замена букв на интервалы чисел)

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]