- •Раздел 1 системы
- •Глава 2 процессы в системе
- •Глава 3 информация в системах и процессах
- •Глава 4 информационные системы
- •Глава 1 системы
- •Основные понятия
- •1.1.1 Понятия объекта, свойства, связи
- •1.1.2 Понятие системы
- •1.2 Состав систем
- •1.2.1 Подсистемы, модули
- •1.2.2 Связи в системе
- •1.2.3 Характеристики в системе
- •1.2.4 Обратные связи в системе
- •1.3 Виды систем
- •1.4 Системный подход
- •1.4.1 Понятие системного подхода
- •1.4.2 Принципы системного подхода
- •1.4.3 О теории систем
- •Глава 2 процессы в системе
- •2.1 Понятие процесса
- •2.1.1 Состояние системы. Изменение состояний
- •2.1.2 Процесс как смена состояний
- •2.1.3 Нечисловые способы описания процессов
- •2.2 Особенности описания процесса
- •2.2.1 Функция как основная математическая характеристика процесса
- •2.2.2 Особенности графического и табличного описания процесса
- •2.2.3 Другие описания процесса
- •2.2.4 Непрерывные и дискретные процессы
- •Глава 3 информация в системах и процессах
- •3.1 Определение информации
- •3.1.1 Связь информации со свойством и объектом
- •3.1.2 Об информации
- •3.2 Виды и свойства информации
- •3.2.1 Виды информации
- •3.2.2 Свойства информации
- •3.3 Информация и компьютер
- •3.4 Операции с информацией
- •3.5 Понятие энтропии
- •Глава 4 информационные системы
- •4.1 Понятие информационной системы (ис)
- •4.2 Разновидности ис
- •4.2.1 Управляющие ис
- •4.2.2 Информационно-справочные ис
- •4.2.3 Информационно-обслуживающие ис
- •4. 3 Ис в современном мире
- •4.3.1 Роль ис
- •4.3.2 Различие в терминах «Информационные системы» и «Автоматизированные системы»
- •4.3.3 Ис и человек
- •Глава 5 Системы и процессы в мультимедиа и дизайне
- •5.1 Объекты, системы и процессы в мультимедиа и дизайне
- •5.2 Особенности мультимедийной и дизайнерской информации (мди)
- •5.3 Работа с мультимедийной и дизайнерской информацией
- •Особенности мультимедийной и дизайнерской информации 45
3.5 Понятие энтропии
Посмотрим на информацию ещё с одной точки зрения.
Можно ли измерять информацию числом назависимо от ее природы? Для этого надо искать то, что имеется в любой информации:
– Информация уменьшает неопределенность.
– Информация продвигает ситуацию от хаоса к порядку.
Ешё в 30-е годы XX века было осознано, что единый подход к информации должен быть связан с вероятностью. Удачное определение информации на этой основе дал в 1948 году американский инженер и математик Клод Шеннон.
Пусть для события А существуют исходы (варианты осуществления) а1 а2 … аn и они реализуются с вероятностями p1 p2 … pn.
Имеем: ∑i pi=1, это аксиома введения вероятностей. Другая фундаментальная аксиома 0 ≤ pi ≤ 1. Они обеспечивают удобство работа с понятием вероятностей.
Шеннон ввёл понятие энтропийной информации, или просто энтропии события А по формуле:
IA = ∑i pi log2 (1/ pi) или, что то же самое, IA = – ∑i pi log2 (pi) .
Единица измерения информации [IA] названа битом.
Ещё раз: для введения энтропии должна быть построена модель:
рассмотрено вариативное событие А
введены возможные исходы события А: а1 а2 … аn
введены вероятности реализации исходов p1 p2 … pn.
Для бросания монеты имеем p1 = p2 = ½ и величина IA есть 1/2∙log2(2) +1/2∙log2(2) = 1 (один бит). Для равновероятных событий (pi равны) сумму можно заменить на количество исходов. При бросании шестигранного кубика имеем шесть равновероятных событий. Получаем: 6∙(1/6∙log2(6)) ≈ 2,6 бита информации.
Теперь бросим 8 монет. У нас 28 =256 равновероятных раскладов, как легли монеты: «орлом» или «решкой» Значит, после бросания 8 монет мы получим IA = 256∙(1/28∙log2(28)) = 8 бит информации.
Мы видим, что при увеличении количества исходов для равновероятных событий энтропия растет (ряд 1; 2.6; 8). Это трактуется как нарастание хаоса – из событий все более трудно что-либо выделить.
Ещё одна простая модель, в которой можно считать энтропию, – это «событие А либо произойдёт, либо не произойдёт». Пусть вероятность того, что оно произойдёт, есть p, тогда вероятность того, что не произойдёт, есть (1–p).
Имеем: энтропия IA = – p log2 p – (1–p) log2 (1–p). При p=0.1; 0.2; 0.4; 0.5; 0.6; 0.8; 0.9 получаем IA ≈0.47, ≈0.72, ≈0.97, =1; ≈0.97, ≈0.72, ≈0.47 . Обратим внимание на симметричность ряда она обеспечивается симметричностью событий с вероятностью p и (1–p).
Построим другой важный для понимания энтропии ряд чисел. Пусть мы задаем некоторый вопрос, и в равной вероятности можем получить ответ «да» или «нет». Эта ситуация эквивалентна одному бросанию монеты или равной вероятности того, что событие произойдёт или не произойдёт. По формуле получаем IA=1, т.е. один бит информации. Пусть теперь вероятности ответов (или чего-то другого с двумя исходами) есть ¼ и ¾. Имеем IA = ¼∙log2(4) + ¾∙log2(4/3) ≈ 0.81 Аналогично для вероятностей 1/8 и 7/8 имеем IA ≈ 0.54 , а для вероятности 1/32 и 31/32 имеем IA ≈ 0.20. Получился ряд : (1, 0.81, 0.54, 0.20) , энтропия здесь становится всё меньше и меньше.
Если вероятность какого-либо исхода равна 1, то вероятность всех остальных исходов нулевая, т.к. ∑i pi = 1. В формуле Шеннона имеем один член в виде 1•log2(1)=1•0=0, а все остальные члены есть неопределённости 0•log2 (0) = 0 • ( – ∞), Но эта неопределенность в теории пределов «раскрывается», и здесь 0 • ( – ∞) = 0. Таким образом, энтропия IA события, в котором вероятность одного их исходов равна 1, есть 0. Такая ситуация рассматривается как полный порядок, мы точно знаем, что произойдёт.
Итак, энтропия равна нулю для полного порядка, в этом случае информация не добавляет нового знания, мы и без неё знаем, что будет, ведь вероятность одного из исходов есть 1, остальных – 0. Если же событий n (n не мало) и их вероятности близки к 1/n, то мы не знаем, что выбрать, и ситуация близка к хаосу.
Как ответ на какой-либо вопрос можно рассматривать любую информацию. Исходов при этом не обязательно будет два. Любому ответу можно приписывать вероятность. Поэтому предложенная Шенноном схема рассматривается как универсальный способ измерения информации.
