Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ИБД реферат.docx
Скачиваний:
12
Добавлен:
28.06.2021
Размер:
414 Кб
Скачать
    1. Характеристики функции энтропии

Функция энтропии обладает 4-мя основными характеристиками:

  • I(p) – монотонно убывающая функция, так как увеличение вероятности события ведет к уменьшению информации от наблюдаемого события и наоборот

  • I(p) >= 0 – количество информации не может иметь отрицательное значение

  • I(1) = 0 – события, которые всегда случаются, не несут информации

  • I(p1, p2) = I(p1) + I(p1) – свойство аддитивности – информация, полученная от независимых событий, является суммой информации, полученной от каждого события

Различные меры информации (биты для основания логарифма = 2, наты для натурального логарифма и баны для десятичного логарифма) являются пропорциональными величинами. Например, при подбрасывании сбалансированной монеты, получается 1 бит информации, или 0.693 ната информации, или 0.301 дита информации. Соответственно, 1*n бит = 0.693*n нат = 0.301*n дита.

Значение получаемых результатов не важно для определения энтропии. Данное понятие принимает во внимание только вероятность наблюдения конкретного события. Соответственно, получаемая информация отражает только распределение вероятности событий, а не их значение.

Дополнительные характеристики функции энтропии включают в себя:

  • Непрерывность – функция энтропия должна быть непрерывна на всей длине, чтобы небольшое изменение в значения вероятностей вело к небольшому изменению значения энтропии

  • Симметричность – функция энтропии должна быть неизменной при перемене вероятностей событий

  • Максимум достигается при равности вероятностей всех событий

  • Добавление или удаление события с вероятностью, равной 0, не влияет на значение энтропии

  • Если X и Y – независимые случайные величины, то они не влияют на значение энтропии друг друга. H(X|Y) = H(X)

  • При увеличении числа равновозможных событий, значение энтропии тоже должно увеличиваться:

    1. Доказательство теоремы сложения энтропий

Теорема сложения энтропий гласит, что при объединении независимых систем их энтропии складываются. Под объединением двух систем X и Y с возможными состояния {x1,x2,..,xn } и { y1,y2,..,ym }понимается сложная система (X, Y), состояния которой (xi, yi) представляют собой все возможные комбинации состояний xi, yi систем X и Y. Состояния такой сложной системы представлены в таблице 1.

Таблица 1

x1

x2

….

xn

y1

P11

P21

….

Pn1

y2

P12

P22

….

Pn2

.

.

.

.

.

.

.

.

.

….

.

.

.

ym

P1m

P2m

….

Pnm

Здесь состояние Pij = P[(X~xi)*P(Y~yj)] – вероятность того, что сложная система (X, Y) будет находиться в состоянии (xi, yj).

По определению энтропия сложной системы равна:

Представим энтропию в форме математического ожидания:

По теореме умножения вероятностей для независимых событий получим:

Если подставить это в формулу энтропии в виде математического ожидания, то получим:

Соответственно, теорема доказана.

Соседние файлы в предмете Интеллектуальные базы данных