Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Крулькевич, М. И. Основы систем производственно-экономической информации учеб. пособие

.pdf
Скачиваний:
4
Добавлен:
19.10.2023
Размер:
6.82 Mб
Скачать

Энтропией системы называют сумму произведений веро­ ятностей различных состояний системы на логарифмы этих вероятностей, взятую с обратным знаком

Н(х) = — 2 pi logi,

1=1

где п — количество состояний; р — вероятности состояний.

Логарифм может быть взят при любом основании, боль­ шем единицы. На практике чаще всего пользуются логариф- ■ мом при основании 2, и тогда энтропию и информацию изме­

ряют в двоичных единицах.

Если информация

выражена в

двоичных

единицах, то ей легко дать

наглядное

истолкова­

ние, а именно': измеряя

информацию в двоичных

едини­

цах,

ее условно можно характеризовать числом

ответов

«да»

или

«нет». Информация какого-то

сообщения,

равная

двоичным

единицам, равносильна

информации, даваемой

ответами

«да» или «нет» на вопросы,

поставленные таким

образом,

что «да» и «нет»

одинаково

вероятны.

 

 

Рассмотрим числовой пример, иллюстрирующий способ измерения информации по системе, содержащейся как в от­ дельных сообщениях о ее состоянии, так и в самом факте выяснения события. Так, например, необходимо угадать чис­ ло от 1 до 16, поставив минимальное количество вопросов, на каждый из которых дается ответ «да» или «нет». Для ре­ шения вначале определяем информацию, заключенную в со-, общении, какое число неизвестно. Считаем априори, что все значения чисел от 1 до 16 равно вероятны:

По формуле определения информации

Ix= log2 16 = 4.

Цифра 4 определяет минимальное число вопросов, кото­ рое необходимо задать при выяснении неизвестного числа, если сформулировать их так, чтобы вероятности ответов «да» и «нет» были одинаковы. Предположим, неизвестным явля­ ется цифра 10. Задаем следующие вопросы.

20

Вопрос 1. Число х больше восьми? Ответ. Да.

Вывод. Эго одно из чисел 9, 10, 11, 12, 13, 14, 15, 16.

Вопрос 2. Число х меньше тринадцати? Ответ. Да.

Вывод. Это одно из чисел 9, 10, 11 или 12. Вопрос 3- Число х больше 11?

Ответ. Нет.

Вывод. Это 9 или 10.

Вопрос 4. Число х больше девяти? Ответ. Да.

Вывод. Число х равно 10.

Таким образом, задав четыре вопроса, нам удалось оп­ ределить неизвестное число. Но при решении практических задач часто оказывается, что система х недоступна для не­ посредственного наблюдения. В этом случае приходится вы­ яснять состояние не самой системы х, а связанной с ней си­ стемы у.

Какое количество информации о системе х дает наблю­ дение системы у определяется по формуле

Iy-X —Н(х) — Н (х/у),

где .(Нх/у) — «остаточная» энтропия системы после получе­ ния о ней сведений.

Применять аддитивную меру удобно в тех случаях, ког­ да необходимо складывать или устанавливать пропорцио­ нальность количества информации к длине числа'гп.

В статистическом направлении информация рассматри­ вается как сообщение об исходе случайных событий, реали: зации случайных величин и функций. При этом количество информации ставится в зависимость от априорных вероят­ ностей этих событий, случайных величин и функций.

Под событием обычно понимают элементарное одно­ предметное явление, которое может быть с вероятностью от-

Р = 0 до Р=1.или

не быть с вероятностью

от q = l—р= 1

до

d= 1—р= 0.

несовместимых событий

составляют

ан­

Все исходы

самбль или полную группу событий с известным распределе­ нием вероятностей, составляющих в сумме единицу. Вообще событиями X], х2, ..., хй можно считать п возможных ди-

21

Скретных состояний отдельных производственно-экономиче­ ских систем, состояние п элементов производственного обо­ рудования и т. д.

Неопределенность каждой ситуации системы или эле­ ментов оборудования в статистическом направлении харак­ теризуется величиной, называемой энтропией.

В информатике энтропия характеризует способность источника отдавать информацию. Предложенная Шенноном энтропия количественно выражается как средняя функция множества вероятностей каждого из возможных исходов опыта или

к

Н = — 2 Pilog2Pi, бит.

1=1

Энтропия совокупности двух и более взаимозависимых ансамблей дискретных случайных переменных может быть условной, взаимной, безусловной и совместной.

Пусть имеется два ансамбля дискретных случайных ве­ личин х и у, тогда по теории вероятностей имеем:

а) условная энтропия

Н (х/у) = Н (х) - Н (х • у);

б) взаимная энтропия

Н (х-у) = Н (х,у) - Н (х/у)—Н (у/х);

в) безусловная энтропия

Н (х) = Н (х/у) + Н (х- у);

г) совместная энтропия

Н(х,у) = Н (х ) -Ь Н ( у ) -Н ( х - у ) .

Количество информации равно энтропии в одном лишь

случае,

когда неопределенность

ситуации снимается

пол­

ностью.

Обычно считают, что количество информации

есть

уменьшение энтропии вследствие

какого-либо опыта

или

акта познания.

 

 

Максимальное количество информации потребитель по­ лучает в том случае, когда полностью снимается неопреде­ ленность таких событий, вероятности которых примерно оди-

22

каковы. Мера такого количества информации оценивается мерой Хартли

I = logjN — — log2 Р,

где N — число событий, а Р — вероятность их реализации в условиях равной вероятности всех событий. Разность меж­ ду максимально возможным количеством информации и эн­ тропией называют абсолютной избыточностью

=Imax. Н ИЛИ D a = Н max. Ь .

Тогда относительная избыточность равна

Н

Наконец, семантическое направление изучает смысл, со­ держание информации.

Основные понятия семантики относятся к системе поня­ тий семиотики — знак, слово и язык.

Знак — это условное изображение элемента сообщения. Слово — совокупность знаков, имеющая смысловое или

предметное значение.

 

Язык — словарь

н правила

пользования им.

В практических

приложениях рассматриваются обычно-

одновременно семантическая и

прагматическая оценки ин­

формации, или значение знаков и слов с учетом их практи­ ческой полезности. Это объясняется тем, что не имеющие смысла сведения бесполезны, а бесполезные сведения бес­ смысленны.

Одно из направлений семантической Формализации смысла предложено Бар-Хиллелом и Карнапом. Они поедложили использовать для целей измерения смысла функции истинности и ложности логические, предложения. При этом за основу дискретного описания объекта берется неделимое предложение, подобное элементарному событию теории ве­ роятностей и соответствующее неделимому кванту сообще­ ния. Такая оценка названа, содержательностью информации.

По аналогии с энтропией мера

содержательности cont

(содержание) события i выражается

через функцию,меры

m(i) — содержательности

его отрицания

cont (i) =

m (~ i) == 1

— m (i),

23

где m — функция меры;

 

 

------ знак отрицания.

 

статисти­

Логическая оценка информации аналогично

ческой оценке

определяется

выражением

 

= 1о^

(l- c o n t( l) ) -

'° Ь T5TD“ - l0g‘ ”

(~ 1>'

Другими словами, содержательность информации опре­ деляется мерой истинности или ложности, событий.

Параметрическая информация представляется трех­ мерной моделью, в которой осями координат являются па­ раметр X, пространство состояний источников информации У и время Т. Например, невыполнение плана по добыче угля шахтой в первый день месяца — событие менее существен­ ное, чем при стечении таких обстоятельств, как невыполне­ ние в последний рабочий день месяца при среднемесячном выполнении плана на 99,9%.

Другими словами, одни и те же параметры в одних точ­ ках и в одни моменты существенны, а в другие — несущест­ венны. При :г^ом имеется три вида существенности инфор­ мации:

а) существенность факта самого события; б) существенность момента времени свершения события;

в)

существенность

одновременно места, времени, пара­

метра

и других значений координат.

 

 

В общем виде существенность информации может быть

выражена как

 

 

 

 

X =

sign {Q,y,T — 0 у,т},

 

 

где sign — функция,

равная единице, если

выражение

в

 

скобках больше либо равно нулю,

и равная ну-

 

• лю, если это выражение меньше нуля;

и

Q, У, Т — текущее

значение параметра, пространства

 

времени;

 

 

 

0— пороговая гиперплоскость, отделяющая область, существенности информации от общей инфор­

мативной области.

Функция существенности X отражает степень важности информации для того или иного значения параметра Q про­ странства У и времени Т.

24

Для измерения информаций, используемой в производ­ ственных системах управления, А. А. Харкевичем предложе­ но учитывать полезность ее по тому эффекту, который она оказывает на результат управления. Такая мера названа им мерой полезности информации. Эта мера представляет изме­ нение вероятности достижения цели при получении дополни­ тельной информации, то есть

 

Дсл.*^ log Р

р

 

log Ро — logj-p-,

 

 

г о

где Р

и Р 0 — априорная

и конечная (после получения ин­

 

формации) вероятность достижения цели.

Так как Р может быть больше, равна или меньше Р0, то

возможны три случая:

 

а)

Р > Р 0 — благоприятный случай; получается доброт­

ная информация, которая увеличивает вероятность-достиже­ ния цели и измеряется положительной величиной количества информации;

б) Р = Р 0 — полученная информации является пустой, то есть она не изменяет вероятности достижения цели. В этом

случае

мера

целесообразности информации равна

нулю;

в)

Р < Р

0 — полученная

информация уменьшает вероят­

ность достижения цели. Для

управляющего органа

она фак­

тически является дезинформацией, которая измеряется отри­ цательным значением количества информации.

Рассмотрим конкретный пример, иллюстрирующий выше­ изложенное (рис. 2).

Из исходного состояния (точка 0) возможны три пред­ полагаемых благоприятных, но неизвестных пути к цели (точка 4): 0-1, 0-2 и 0-4. Нами выбран путь 0-1. При этом вероятности достижения цели по указанным путям одинако­ вы и равны V.3.

Достигнув точки 1, получили дополнительную информа­

цию:

информация оказалась нейтральной, так как стало из­

а)

вестно,

что из

точки 1

благоприятных

путей

к цели (точка

4) три:

(1-2-4),

(1-2-3)

и (1-4)

J

 

 

 

 

 

 

 

1цел

* = l Qg 2 - ^

| -Q- ^ { j - ~ » I O g 2

О',

25

б) общая, информация дополнилась ложной, предпола­ гаемых благоприятных путей к цели увеличилось и стало 4: 1-2-4, 1-2-3, 1-4, 1-5-4. В этом случае

\_

U . = toga р [q ; | j - = tog2 \ —toga 0,76 = — 0,36;

Т

в) поступившая информация позволила считать благо­ приятными только два пути: 1-2-4 и 1-4. Тогда

1«ел. - loga р ~ ту~ = toga у

togj 1,51-0,59.

Т

 

Кроме традиционных информационных мер при оценке количества информации в системах управления производ­ ством должны учитываться искаженность информации, теза­ урус и необходимое разнообразие.

Искаженность информации определяется характеристи­ ками источника, канала связи и приемника.

Так, объект, обладающий определенной энтропией Н0, характеризуется еще и способностью источника отдавать ин­ формацию, так как отдача ее зачастую бывает неполной. Тогда в канал связи поступает информация

I = Ноб -Г Н„.

В свою очередь в канале связи часть информации теря­ ется или искажается шумом. Оставшаяся часть информации

t ■“ Н0б + Ни -f Нк -j- 1К

достигнет приемника, но

воспринимается им в той степени,

в какой это позволяют

устройства или органы восприятия.

Поступившие к приемнику сведения в процессе восприя­ тия делятся на несущие информацию и пустые. Пустыми яв­ ляются сведения об отклонениях, лежащих за пределом раз­ личения восприятия.

- Таким образом, количество информации, фактически принятое приемником, уменьшается на количество информа­ ции, теряемой в связи с его разрешающей способностью вос­ приятия цо отношению к потоку сведений.

26

Для оценки .качества воспринятой информации приемни­ ком Т. И. Покровским и В. Н. Тростниковым предложено ис­ пользовать понятие выразительности сообщения-

Выразительным считается то сообщение, которое содер­ жит количество информации, обеспечивающее восприятие ее за допустимое время.

Указанные авторы определяют выразительность как про­ изведение четкости на количество информации с учетом по­ терь при данном пределе различимости, то есть

где^1— ~ j ~~ четкость восприятия сведений;

х— отклонение от стандарта или закономерности различения;

а— предельная величина отклонения, при кото­ ром теряется связь между воспринимаемыми сведениями и данным стандартом или дан­ ным типом закономерности;

х0 — порог разрешающей способности органов или устройств восприятия, зависящий от характе­ ра решаемой задачи.

Таким образом, приемник имеет возможность принять количество информации, равное

1 = Ч0б + Ни + Нк — 1к — 1пр.

где 1пр ~ потеря информации на воспринимающем фильт­ ре приемника.

Тезаурус определяет интеллектуальное поведение прием­ ника информации. Другими словами, это запас знаний или словарь, используемыйприемником при решении задач.

В общем случае интеллектуальное поведение представ­ ляет собой число, зависящее от функций X, И и Р, то есть функционал вида

Т ® V [Х ,И ,Р ],

где X : вектор, характеризующий диапазон сред, каждый компонент которого описывает множество ситуаций конкретной, среды;

27

И — вектор, определяющий значение вероятностей успешного решения;

Р— вектор, определяющий множество решений в усло­ виях конкретной среды.

Показатель эффективности управленческой деятельности приемника для конкретного множества сред при наличии приоритетности сред может быть определен из выражения

Q = min 2 Ki ( 1 — Pi ), l - l

где n — диапазон сред, по которым приемник информации проводитанализ и принимает решения;

К — коэффициент приоритетности i-ой среды;

Р— вероятность, успешного решения в конкретной среде.

Стечением времени под действием поступающих сообще­ ний тезаурус изменяется. В принципе он может быть вооб­ ще не адекватен передаваемой информации, очень мал или вообще отсутствовать. Тогда самая новая и богатая инфор­ мация не воспринимается вследствие того, что она не будет принята приемником. В первый период под действием сооб­ щений тезаурус обогащается. Достигнув какого-то макси­ мального предела, определяемого степенью успешности ре­ шения задач в конкретных средах, приемник, имея доста­ точно высокий запас априорных знаний (тезаурус), не использует получаемые непрерывно сведения.

Итак, может оказаться, что несмотря на высокое богат­ ство структуры статистики информации, приемник не нужда­ ется в ней, так как он ее уже имеет или не умеет с ней обра­ щаться.

Благоприятным в таких случаях является дополнение информации процессом актуации, представляющим собой активный запас информации со стороны заинтересованного приемника. При актуации могут быть три типа вопросов:

отсутствие предвосхищения ответом;

имеется некоторая часть ответа;

имеется полностью ответ и требуется только его под­ тверждение.

28

Особо эффективными оказываются вопросы третьего ти­ па, которые могут заменить передачу огромных массивов данных передачей совсем незначительного количества све­ дений.

Очевидно, актуацию при оценке информации удобнее всего вводить коэффициентом. Тогда с учетом тезауруса при­ емником будет использовано количество информации, равное

1пр- = [К ,ТЛ],

К — коэффициент актуации;

I — объем поступившей к приемнику информации.

Необходимое разнообразие информации является след­ ствием закона необходимого разнообразия У. Р. Эшби. Оно сводится к утверждению, что существует минимум информа­ ции на входе приемника, необходимый для достижения эф­ фективного минимума разнообразия управляющих команд (решений), вырабатываемых приемником.

Указанный минимум может быть рассчитан на основа­ нии алгоритмов — решаемых приемником задач, т. е это функционал вида

IB“= V [Aj, Аг, :. . , А0 ].

Причем, алгоритмы должны быть предварительно вы­ браны таким образом, чтобы обеспечивалась необходимая точность решения при минимальных затратах информации.

§ 4. Обращение информации

Материальным носителем информации является в ко­ нечном счете выражаемый в различной форме сигнал. В свя­ зи с этим представляется возможным рассматривать цикл обращения информации при управлении предприятием одно­ временно как перемещение ее, так и преобразование. Тогда в цикле обращения могут быть выделены следующие фазы: восприятие, передача, обработка, представление и воздей­ ствие.

Восприятие состоит в формировании образа объекта. Причем такого образа, который включает свойства управ­ ляющего объекта (процесса); существенные для принятия в отношении его тех или иных решений.

29

Соседние файлы в папке книги из ГПНТБ