Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
16-TIPS_konsp_stud.docx
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
261.77 Кб
Скачать

3.5 Понятие энтропии

Посмотрим на информацию ещё с одной точки зрения.

Можно ли измерять информацию числом назависимо от ее природы? Для этого надо искать то, что имеется в любой информации:

– Информация уменьшает неопределенность.

– Информация продвигает ситуацию от хаоса к порядку.

Ешё в 30-е годы XX века было осознано, что единый подход к информации должен быть связан с вероятностью. Удачное определение информации на этой основе дал в 1948 году американский инженер и математик Клод Шеннон.

Пусть для события А существуют исходы (варианты осуществления) а1 а2 … аn и они реализуются с вероятностями p1 p2 … pn.

Имеем: ∑i pi=1, это аксиома введения вероятностей. Другая фундаментальная аксиома 0 ≤ pi ≤ 1. Они обеспечивают удобство работа с понятием вероятностей.

Шеннон ввёл понятие энтропийной информации, или просто энтропии события А по формуле:

IA = ∑i pi log2 (1/ pi) или, что то же самое, IA = i pi log2 (pi) .

Единица измерения информации [IA] названа битом.

Ещё раз: для введения энтропии должна быть построена модель:

  1. рассмотрено вариативное событие А

  2. введены возможные исходы события А: а1 а2 … аn

  3. введены вероятности реализации исходов p1 p2 … pn.

Для бросания монеты имеем p1 = p2 = ½ и величина IA есть 1/2∙log2(2) +1/2∙log2(2) = 1 (один бит). Для равновероятных событий (pi равны) сумму можно заменить на количество исходов. При бросании шестигранного кубика имеем шесть равновероятных событий. Получаем: 6∙(1/6∙log2(6)) ≈ 2,6 бита информации.

Теперь бросим 8 монет. У нас 28 =256 равновероятных раскладов, как легли монеты: «орлом» или «решкой» Значит, после бросания 8 монет мы получим IA = 256∙(1/28∙log2(28)) = 8 бит информации.

Мы видим, что при увеличении количества исходов для равновероятных событий энтропия растет (ряд 1; 2.6; 8). Это трактуется как нарастание хаоса – из событий все более трудно что-либо выделить.

Ещё одна простая модель, в которой можно считать энтропию, – это «событие А либо произойдёт, либо не произойдёт». Пусть вероятность того, что оно произойдёт, есть p, тогда вероятность того, что не произойдёт, есть (1–p).

Имеем: энтропия IA = p log2 p (1p) log2 (1p). При p=0.1; 0.2; 0.4; 0.5; 0.6; 0.8; 0.9 получаем IA ≈0.47, ≈0.72, ≈0.97, =1; ≈0.97, ≈0.72, ≈0.47 . Обратим внимание на симметричность ряда она обеспечивается симметричностью событий с вероятностью p и (1p).

Построим другой важный для понимания энтропии ряд чисел. Пусть мы задаем некоторый вопрос, и в равной вероятности можем получить ответ «да» или «нет». Эта ситуация эквивалентна одному бросанию монеты или равной вероятности того, что событие произойдёт или не произойдёт. По формуле получаем IA=1, т.е. один бит информации. Пусть теперь вероятности ответов (или чего-то другого с двумя исходами) есть ¼ и ¾. Имеем IA = ¼∙log2(4) + ¾∙log2(4/3) ≈ 0.81 Аналогично для вероятностей 1/8 и 7/8 имеем IA ≈ 0.54 , а для вероятности 1/32 и 31/32 имеем IA ≈ 0.20. Получился ряд : (1, 0.81, 0.54, 0.20) , энтропия здесь становится всё меньше и меньше.

Если вероятность какого-либо исхода равна 1, то вероятность всех остальных исходов нулевая, т.к. ∑i pi = 1. В формуле Шеннона имеем один член в виде 1•log2(1)=1•0=0, а все остальные члены есть неопределённости 0•log2 (0) = 0 • ( ∞), Но эта неопределенность в теории пределов «раскрывается», и здесь 0 • ( ∞) = 0. Таким образом, энтропия IA события, в котором вероятность одного их исходов равна 1, есть 0. Такая ситуация рассматривается как полный порядок, мы точно знаем, что произойдёт.

Итак, энтропия равна нулю для полного порядка, в этом случае информация не добавляет нового знания, мы и без неё знаем, что будет, ведь вероятность одного из исходов есть 1, остальных – 0. Если же событий n (n не мало) и их вероятности близки к 1/n, то мы не знаем, что выбрать, и ситуация близка к хаосу.

Как ответ на какой-либо вопрос можно рассматривать любую информацию. Исходов при этом не обязательно будет два. Любому ответу можно приписывать вероятность. Поэтому предложенная Шенноном схема рассматривается как универсальный способ измерения информации.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]