книги из ГПНТБ / Крулькевич, М. И. Основы систем производственно-экономической информации учеб. пособие
.pdfЭнтропией системы называют сумму произведений веро ятностей различных состояний системы на логарифмы этих вероятностей, взятую с обратным знаком
Н(х) = — 2 pi logi,
1=1
где п — количество состояний; р — вероятности состояний.
Логарифм может быть взят при любом основании, боль шем единицы. На практике чаще всего пользуются логариф- ■ мом при основании 2, и тогда энтропию и информацию изме
ряют в двоичных единицах. |
Если информация |
выражена в |
|||||
двоичных |
единицах, то ей легко дать |
наглядное |
истолкова |
||||
ние, а именно': измеряя |
информацию в двоичных |
едини |
|||||
цах, |
ее условно можно характеризовать числом |
ответов |
|||||
«да» |
или |
«нет». Информация какого-то |
сообщения, |
равная |
|||
двоичным |
единицам, равносильна |
информации, даваемой |
|||||
ответами |
«да» или «нет» на вопросы, |
поставленные таким |
|||||
образом, |
что «да» и «нет» |
одинаково |
вероятны. |
|
|
Рассмотрим числовой пример, иллюстрирующий способ измерения информации по системе, содержащейся как в от дельных сообщениях о ее состоянии, так и в самом факте выяснения события. Так, например, необходимо угадать чис ло от 1 до 16, поставив минимальное количество вопросов, на каждый из которых дается ответ «да» или «нет». Для ре шения вначале определяем информацию, заключенную в со-, общении, какое число неизвестно. Считаем априори, что все значения чисел от 1 до 16 равно вероятны:
По формуле определения информации
Ix= log2 16 = 4.
Цифра 4 определяет минимальное число вопросов, кото рое необходимо задать при выяснении неизвестного числа, если сформулировать их так, чтобы вероятности ответов «да» и «нет» были одинаковы. Предположим, неизвестным явля ется цифра 10. Задаем следующие вопросы.
20
Вопрос 1. Число х больше восьми? Ответ. Да.
Вывод. Эго одно из чисел 9, 10, 11, 12, 13, 14, 15, 16.
■Вопрос 2. Число х меньше тринадцати? Ответ. Да.
Вывод. Это одно из чисел 9, 10, 11 или 12. Вопрос 3- Число х больше 11?
Ответ. Нет.
Вывод. Это 9 или 10.
Вопрос 4. Число х больше девяти? Ответ. Да.
Вывод. Число х равно 10.
Таким образом, задав четыре вопроса, нам удалось оп ределить неизвестное число. Но при решении практических задач часто оказывается, что система х недоступна для не посредственного наблюдения. В этом случае приходится вы яснять состояние не самой системы х, а связанной с ней си стемы у.
Какое количество информации о системе х дает наблю дение системы у определяется по формуле
Iy-X —Н(х) — Н (х/у),
где .(Нх/у) — «остаточная» энтропия системы после получе ния о ней сведений.
Применять аддитивную меру удобно в тех случаях, ког да необходимо складывать или устанавливать пропорцио нальность количества информации к длине числа'гп.
В статистическом направлении информация рассматри вается как сообщение об исходе случайных событий, реали: зации случайных величин и функций. При этом количество информации ставится в зависимость от априорных вероят ностей этих событий, случайных величин и функций.
Под событием обычно понимают элементарное одно предметное явление, которое может быть с вероятностью от-
Р = 0 до Р=1.или |
не быть с вероятностью |
от q = l—р= 1 |
до |
d= 1—р= 0. |
несовместимых событий |
составляют |
ан |
Все исходы |
самбль или полную группу событий с известным распределе нием вероятностей, составляющих в сумме единицу. Вообще событиями X], х2, ..., хй можно считать п возможных ди-
21
Скретных состояний отдельных производственно-экономиче ских систем, состояние п элементов производственного обо рудования и т. д.
Неопределенность каждой ситуации системы или эле ментов оборудования в статистическом направлении харак теризуется величиной, называемой энтропией.
В информатике энтропия характеризует способность источника отдавать информацию. Предложенная Шенноном энтропия количественно выражается как средняя функция множества вероятностей каждого из возможных исходов опыта или
к
Н = — 2 Pilog2Pi, бит.
1=1
Энтропия совокупности двух и более взаимозависимых ансамблей дискретных случайных переменных может быть условной, взаимной, безусловной и совместной.
Пусть имеется два ансамбля дискретных случайных ве личин х и у, тогда по теории вероятностей имеем:
а) условная энтропия
Н (х/у) = Н (х) - Н (х • у);
б) взаимная энтропия
Н (х-у) = Н (х,у) - Н (х/у)—Н (у/х);
в) безусловная энтропия
Н (х) = Н (х/у) + Н (х- у);
г) совместная энтропия
Н(х,у) = Н (х ) -Ь Н ( у ) -Н ( х - у ) .
Количество информации равно энтропии в одном лишь
случае, |
когда неопределенность |
ситуации снимается |
пол |
ностью. |
Обычно считают, что количество информации |
есть |
|
уменьшение энтропии вследствие |
какого-либо опыта |
или |
|
акта познания. |
|
|
Максимальное количество информации потребитель по лучает в том случае, когда полностью снимается неопреде ленность таких событий, вероятности которых примерно оди-
22
каковы. Мера такого количества информации оценивается мерой Хартли
I = logjN — — log2 Р,
где N — число событий, а Р — вероятность их реализации в условиях равной вероятности всех событий. Разность меж ду максимально возможным количеством информации и эн тропией называют абсолютной избыточностью
=Imax. Н ИЛИ D a = Н max. Ь .
Тогда относительная избыточность равна
Н
Наконец, семантическое направление изучает смысл, со держание информации.
Основные понятия семантики относятся к системе поня тий семиотики — знак, слово и язык.
Знак — это условное изображение элемента сообщения. Слово — совокупность знаков, имеющая смысловое или
предметное значение. |
|
|
Язык — словарь |
н правила |
пользования им. |
В практических |
приложениях рассматриваются обычно- |
|
одновременно семантическая и |
прагматическая оценки ин |
формации, или значение знаков и слов с учетом их практи ческой полезности. Это объясняется тем, что не имеющие смысла сведения бесполезны, а бесполезные сведения бес смысленны.
Одно из направлений семантической Формализации смысла предложено Бар-Хиллелом и Карнапом. Они поедложили использовать для целей измерения смысла функции истинности и ложности логические, предложения. При этом за основу дискретного описания объекта берется неделимое предложение, подобное элементарному событию теории ве роятностей и соответствующее неделимому кванту сообще ния. Такая оценка названа, содержательностью информации.
По аналогии с энтропией мера |
содержательности cont |
|
(содержание) события i выражается |
через функцию,меры |
|
m(i) — содержательности |
его отрицания |
|
cont (i) = |
m (~ i) == 1 |
— m (i), |
23
где m — функция меры; |
|
|
|
------ знак отрицания. |
|
статисти |
|
Логическая оценка информации аналогично |
|||
ческой оценке |
определяется |
выражением |
|
= 1о^ |
(l- c o n t( l) ) - |
'° Ь T5TD“ - l0g‘ ” |
(~ 1>' |
Другими словами, содержательность информации опре деляется мерой истинности или ложности, событий.
Параметрическая информация представляется трех мерной моделью, в которой осями координат являются па раметр X, пространство состояний источников информации У и время Т. Например, невыполнение плана по добыче угля шахтой в первый день месяца — событие менее существен ное, чем при стечении таких обстоятельств, как невыполне ние в последний рабочий день месяца при среднемесячном выполнении плана на 99,9%.
Другими словами, одни и те же параметры в одних точ ках и в одни моменты существенны, а в другие — несущест венны. При :г^ом имеется три вида существенности инфор мации:
а) существенность факта самого события; б) существенность момента времени свершения события;
в) |
существенность |
одновременно места, времени, пара |
||
метра |
и других значений координат. |
|
|
|
В общем виде существенность информации может быть |
||||
выражена как |
|
|
|
|
|
X = |
sign {Q,y,T — 0 у,т}, |
|
|
где sign — функция, |
равная единице, если |
выражение |
в |
|
|
скобках больше либо равно нулю, |
и равная ну- |
||
|
• лю, если это выражение меньше нуля; |
и |
||
Q, У, Т — текущее |
значение параметра, пространства |
|||
|
времени; |
|
|
|
0— пороговая гиперплоскость, отделяющая область, существенности информации от общей инфор
мативной области.
Функция существенности X отражает степень важности информации для того или иного значения параметра Q про странства У и времени Т.
24
Для измерения информаций, используемой в производ ственных системах управления, А. А. Харкевичем предложе но учитывать полезность ее по тому эффекту, который она оказывает на результат управления. Такая мера названа им мерой полезности информации. Эта мера представляет изме нение вероятности достижения цели при получении дополни тельной информации, то есть
|
Дсл.*^ log Р |
р |
|
log Ро — logj-p-, |
|
|
|
г о |
где Р |
и Р 0 — априорная |
и конечная (после получения ин |
|
формации) вероятность достижения цели. |
|
Так как Р может быть больше, равна или меньше Р0, то |
||
возможны три случая: |
|
|
а) |
Р > Р 0 — благоприятный случай; получается доброт |
ная информация, которая увеличивает вероятность-достиже ния цели и измеряется положительной величиной количества информации;
б) Р = Р 0 — полученная информации является пустой, то есть она не изменяет вероятности достижения цели. В этом
случае |
мера |
целесообразности информации равна |
нулю; |
|
в) |
Р < Р |
0 — полученная |
информация уменьшает вероят |
|
ность достижения цели. Для |
управляющего органа |
она фак |
тически является дезинформацией, которая измеряется отри цательным значением количества информации.
Рассмотрим конкретный пример, иллюстрирующий выше изложенное (рис. 2).
Из исходного состояния (точка 0) возможны три пред полагаемых благоприятных, но неизвестных пути к цели (точка 4): 0-1, 0-2 и 0-4. Нами выбран путь 0-1. При этом вероятности достижения цели по указанным путям одинако вы и равны V.3.
Достигнув точки 1, получили дополнительную информа
цию: |
информация оказалась нейтральной, так как стало из |
||||
а) |
|||||
вестно, |
что из |
точки 1 |
благоприятных |
путей |
к цели (точка |
4) три: |
(1-2-4), |
(1-2-3) |
и (1-4) |
J |
|
|
|
|
|
|
|
|
1цел |
* = l Qg 2 - ^ |
| -Q- ^ { j - ~ » I O g 2 |
— |
О', |
25
б) общая, информация дополнилась ложной, предпола гаемых благоприятных путей к цели увеличилось и стало 4: 1-2-4, 1-2-3, 1-4, 1-5-4. В этом случае
\_
U . = toga р [q ; | j - = tog2 \ —toga 0,76 = — 0,36;
Т
в) поступившая информация позволила считать благо приятными только два пути: 1-2-4 и 1-4. Тогда
1«ел. - loga р ~ ту~ = toga у |
togj 1,51-0,59. |
Т |
|
Кроме традиционных информационных мер при оценке количества информации в системах управления производ ством должны учитываться искаженность информации, теза урус и необходимое разнообразие.
Искаженность информации определяется характеристи ками источника, канала связи и приемника.
Так, объект, обладающий определенной энтропией Н0, характеризуется еще и способностью источника отдавать ин формацию, так как отдача ее зачастую бывает неполной. Тогда в канал связи поступает информация
I = Ноб -Г Н„.
В свою очередь в канале связи часть информации теря ется или искажается шумом. Оставшаяся часть информации
t ■“ Н0б + Ни -f Нк -j- 1К
достигнет приемника, но |
воспринимается им в той степени, |
в какой это позволяют |
устройства или органы восприятия. |
Поступившие к приемнику сведения в процессе восприя тия делятся на несущие информацию и пустые. Пустыми яв ляются сведения об отклонениях, лежащих за пределом раз личения восприятия.
- Таким образом, количество информации, фактически принятое приемником, уменьшается на количество информа ции, теряемой в связи с его разрешающей способностью вос приятия цо отношению к потоку сведений.
26
Для оценки .качества воспринятой информации приемни ком Т. И. Покровским и В. Н. Тростниковым предложено ис пользовать понятие выразительности сообщения-
Выразительным считается то сообщение, которое содер жит количество информации, обеспечивающее восприятие ее за допустимое время.
Указанные авторы определяют выразительность как про изведение четкости на количество информации с учетом по терь при данном пределе различимости, то есть
где^1— ~ j ~~ четкость восприятия сведений;
х— отклонение от стандарта или закономерности различения;
а— предельная величина отклонения, при кото ром теряется связь между воспринимаемыми сведениями и данным стандартом или дан ным типом закономерности;
х0 — порог разрешающей способности органов или устройств восприятия, зависящий от характе ра решаемой задачи.
Таким образом, приемник имеет возможность принять количество информации, равное
1 = Ч0б + Ни + Нк — 1к — 1пр.
где 1пр ~ потеря информации на воспринимающем фильт ре приемника.
Тезаурус определяет интеллектуальное поведение прием ника информации. Другими словами, это запас знаний или словарь, используемыйприемником при решении задач.
В общем случае интеллектуальное поведение представ ляет собой число, зависящее от функций X, И и Р, то есть функционал вида
Т ® V [Х ,И ,Р ],
где X : вектор, характеризующий диапазон сред, каждый компонент которого описывает множество ситуаций конкретной, среды;
27
И — вектор, определяющий значение вероятностей успешного решения;
Р— вектор, определяющий множество решений в усло виях конкретной среды.
Показатель эффективности управленческой деятельности приемника для конкретного множества сред при наличии приоритетности сред может быть определен из выражения
Q = min 2 Ki ( 1 — Pi ), l - l
где n — диапазон сред, по которым приемник информации проводитанализ и принимает решения;
К — коэффициент приоритетности i-ой среды;
Р— вероятность, успешного решения в конкретной среде.
Стечением времени под действием поступающих сообще ний тезаурус изменяется. В принципе он может быть вооб ще не адекватен передаваемой информации, очень мал или вообще отсутствовать. Тогда самая новая и богатая инфор мация не воспринимается вследствие того, что она не будет принята приемником. В первый период под действием сооб щений тезаурус обогащается. Достигнув какого-то макси мального предела, определяемого степенью успешности ре шения задач в конкретных средах, приемник, имея доста точно высокий запас априорных знаний (тезаурус), не использует получаемые непрерывно сведения.
Итак, может оказаться, что несмотря на высокое богат ство структуры статистики информации, приемник не нужда ется в ней, так как он ее уже имеет или не умеет с ней обра щаться.
Благоприятным в таких случаях является дополнение информации процессом актуации, представляющим собой активный запас информации со стороны заинтересованного приемника. При актуации могут быть три типа вопросов:
—отсутствие предвосхищения ответом;
—имеется некоторая часть ответа;
—имеется полностью ответ и требуется только его под тверждение.
28
Особо эффективными оказываются вопросы третьего ти па, которые могут заменить передачу огромных массивов данных передачей совсем незначительного количества све дений.
Очевидно, актуацию при оценке информации удобнее всего вводить коэффициентом. Тогда с учетом тезауруса при емником будет использовано количество информации, равное
1пр- = [К ,ТЛ],
К — коэффициент актуации;
I — объем поступившей к приемнику информации.
Необходимое разнообразие информации является след ствием закона необходимого разнообразия У. Р. Эшби. Оно сводится к утверждению, что существует минимум информа ции на входе приемника, необходимый для достижения эф фективного минимума разнообразия управляющих команд (решений), вырабатываемых приемником.
Указанный минимум может быть рассчитан на основа нии алгоритмов — решаемых приемником задач, т. е это функционал вида
IB“= V [Aj, Аг, :. . , А0 ].
Причем, алгоритмы должны быть предварительно вы браны таким образом, чтобы обеспечивалась необходимая точность решения при минимальных затратах информации.
§ 4. Обращение информации
Материальным носителем информации является в ко нечном счете выражаемый в различной форме сигнал. В свя зи с этим представляется возможным рассматривать цикл обращения информации при управлении предприятием одно временно как перемещение ее, так и преобразование. Тогда в цикле обращения могут быть выделены следующие фазы: восприятие, передача, обработка, представление и воздей ствие.
Восприятие состоит в формировании образа объекта. Причем такого образа, который включает свойства управ ляющего объекта (процесса); существенные для принятия в отношении его тех или иных решений.
29