![](/user_photo/2706_HbeT2.jpg)
- •Андреев в.Н. Основы менеджмента предприятия
- •Часть 2
- •Информация и коммуникации
- •1. Основные черты современной системы хозяйствования и проблемы управления
- •2. Информация и ее измерение
- •2.1. Понятие информации
- •2.2. Вероятность как основа измерения информации
- •2.3. Измерение информативности сообщений
- •2.3.1. Синтактическая мера информации - мера Шеннона-Винера
- •Допустим, что все исходы равновероятны.
- •Так как сумма вероятностей независимых исходов равна единице, то .
- •2.3.2. Семантический и прагматический подходы к измерению количества информации
- •2.4. Измерение объемов информации
- •Реквизит-основание предназначен для количественной характеристики описываемого события или объекта. Это обыкновенная числовая величина, полученная в результате измерения или вычисления.
- •С точки зрения количества знаков (сигналов), содержащихся в том или ином сообщении (в синтактическом аспекте) объем информации измеряется в натуральных и машинных единицах.
- •3. Моделирование как инструмент управления производством
- •3.1. Понятие о модели
- •3.3. Экономические модели
- •3.4. Семантические модели и метода их построения
- •3.5. Взаимосвязь моделей управления производством
- •4. Принятие управленческих решений
- •4.1. Рост влияния неопределенности на организацию управления современным предприятием
- •4.2. Преодоление неопределенности в процессе управления производством
- •4.3. Методы и критерии принятия решения при разных уровнях определенности производственных ситуаций
- •4.4. Учет нового знания в модели принятия решения
Допустим, что все исходы равновероятны.
Тогда Р(а1 )= Р( а 2) = ….=Р(а n )=1/n
Если А может иметь только один исход n =1 , то неопределенность события А равна нулю. При n =2 она будет отличатся от нуля и с возрастанием числа возможных исходов будет увеличиваться.
Рассмотрим сложное событие АВ, состоящее из двух независимых событий А и В. Событие А имеет n, а событие В – m равновероятных исходов.
Для удобства примем, что неопределенность сложного события равна сумме неопределенностей составляющих его простых событий. Однако событие АВ имеет nm равностоящих исходов. В силу вышесказанного мера неопределенности сложного события должна удовлетворять условию:
У (п т) = У(п) + У(т)
Оказывается, что такому условию удовлетворяет лишь логарифмическая функция:
Log(n m) = log n + log m
Так как исходы предположены равновероятными, то, очевидно, что каждый из них будет вносить в общую неопределенность события равною долю, именно 1/n log n .
Поскольку log n = - log 1/n, то 1/n log n = - 1/n log 1/n,
где 1/n – вероятность каждого исхода.
Следовательно, в общем случае неопределенность каждого исхода будет определятся лишь логарифмом его вероятности (-log P(ai)).
Так как информация есть мера устранения неопределенности, то ее естественно измерять ее как разность неопределенностей некоторого исхода до и после получения сообщения. Пусть неопределенность исхода до сообщения совершения события А измеряется logP0(ai), а после А – logPi(ai). Тогда количество информации об исходе ai, полученной из сообщения А, будет равно
I(а1
)= logРi(
)
– log Р0(
).
Если
это сообщение о совершении исхода
,то
Рi(
)=1
и I(
)
= -logР0(
).
Из этого с очевидностью следует, что чем больше вероятность исхода до осуществления события (априорная вероятность); тем меньше количество информации, получаемое из сообщения о его осуществлении.
Выражение
I()
характеризует
количество информации относительно
индивидуального исхода
. Но
событие А
может иметь
несколько исходов. Ясно, что неопределенность
каждого из них связана с неопределенностью
события А
в целом. Определим среднюю величину
неопределенности всех возможных исходов,
взвешенную по их вероятностям
Так как сумма вероятностей независимых исходов равна единице, то .
Величина Н(А) называется энтропией события А и является мерой его средней неопределенности. Нетрудно показать, что она достигает максимума при равновероятности всех исходов и делает тем меньше, чем больше различия и вероятностях отдельных исходов.
Энтропия сложного события (АВ) равна сумме энтропий составляющих его простых событий, но лишь при условии, что последние независимы.
H(AB) = H(A) +H(B)
Если же А и В взаимозависимы, то очевидно, что
H(AB) H(A) +H(В)
В случае, когда исход события В полностью определяется исходом события А, то есть если А и В связаны функциональной зависимостью
H(AB) = H(A)
Если же зависимость, связывающая события А и В вероянтостная, то
H(AB) = H(A) +H(B/А),
где, Н(В/А) – условная энтропия события в при условии, что событие А наступило.
Как уже отмечалось выше, в теории Шеннона-Винера не рассматриваются вопросы смыслового содержания сообщений и ценность их для пользователей. Вероятности, используемые для измерения информативности сообщений, суть объективные, частотные вероятности.
Поэтому, естественно, предпринимались многочисленные попытки построить другие способы измерения информации, более пригодные для использования в практике построения современных систем управления.