- •1.Информация. Источник, носитель и получатель информации. Акт генезиса информации.
- •2.Три раздела семиотики и их взаимосвязь с условием информационного описания объекта. Информативность сообщений.
- •3.Три концепции вероятности, их взаимосвязь и соответствие аксиоматической теории исчисления вероятностей.
- •4.Синтактическая мера информации. Понятие энтропии. Условная энтропия сложного события. Вид вероятностей, используемых при исчислении энтропии.
- •5.Семантическая мера информации, ее связь с логическими вероятностями.
- •6._Ценность информации. Ценность полной и неполной информации.
- •7.Измерение объемов информации: семантическая, синтактическая натуральная и синтактическая машинная шкалы.
- •9.Принятие решений в условиях неопределенности. Критерии – Вальда, Сэвиджа, Гурвица и «недостаточного» основания.
- •10. Неопределенность в хозяйствовании, ее источники. Виды неопределенности. Преодоление неопределенности через привлечение дополнительной не учтенной при построении модели информации.
- •13._Хозяйствование как процесс прогрессирующего разделения труда. Разделение труда в менеджменте.
- •17._Взаимосвязи производственной (хозяйственной) структуры и инф-ной структуры и их учет при построении хоз. Системы.
- •19. Разделение труда по уровням иерархии. Централизация и децентрализация управления, их достоинства и недостатки
- •22._Линейный и функциональный принцип построения организаци-онных структур, их достоинства и недостатки.
- •23._Линейно-штабная структура и ее возможные модификации. Виды «штабов» и специфические задачи, стоящие перед ними.
5.Семантическая мера информации, ее связь с логическими вероятностями.
Под содержательностью или симантикой сообщений понимается наличие понятий и суждений хар-их действительные и возможные состояния объектов. Мера семантической инф-ии должна быть функцией логич вероятностью утверждения.
Теория семантического подхода строиться для простого языка, кот содержит только повествовательные предложения, выраженные отношениями между конечным числом, объектом и св-ом с помощью логических связей таких как: “не”, “если”, “то”, “и”. Основной теории явл предположение, что данное высказывание тем более содержательно, тем меньшей неопределенностью оно обладает. Т.о. содержательное высказывание определяется не тем, что оно содержит, а тем что исключает. Элемент содержательности есть высказывание, которое обладает наименьшим содержанием и служит единицей измерения. Максимальным явл содержание таких ложных высказываний, кот исключает все альтернативы. В теории вводятся две связанные между собой меры высказывания. Вероятностная мера (принимает значение промежутка от 0 до 1) и информационная мера (явл мерой величины неожиданности высказывания и учитывает, что нового несет получателю сообщение по сравнению с тем, он сказал, предполагал).
6._Ценность информации. Ценность полной и неполной информации.
Перспективным представляется подход к измерению ценности информации в рамках байесовской теории принятия решений. Рассмотрим его особенности на условном примере.
Имеется монета и специально изготовленная игральная кость, четыре стороны которой помечены словом "герб" и остальные две словом "решетка". Наблюдать бросание монеты и кости не разрешается. Один из предметов накрывается чашкой.
Введем обозначения для следующих утверждений: "не накрыта монета" - To; "не накрыта кость" – T1; "выпал герб" - a; "выпала решетка" - b.
Если принимающий решение правильно угадает, какой именно предмет не накрыт, он получит приз - 1 рубль. В противном случае он не получает ничего. Вероятности событий To и T1 на начало эксперимента представляются равными p (To) = p (T1) = 1/2.
Очевидно, что в этом случае ожидаемый выигрыш Co = 1/2 руб. Если же точно известно, какое событие произойдет, то ожидаемый выигрыш при наличии полной и надежной информации Cnu = 1 руб.
Увеличение дохода принимающего решение по сравнению с доходом, который он получил бы на основе решений, принятых с помощью априорной информации, будем называть ожидаемой ценностью полной информации. В нашем примере
Qnu = Cnu – Co = 1*0,5=0,5 руб.
Следовательно, максимальная сумма, которую имеет смысл заплатить за совершенно надежную информацию в нашем случае - 0,5 руб. Поскольку Qnu представляет собой прирост дохода от полного исключения неопределенности, эту величину иногда называют стоимостью неопределенности.
Попробуем теперь определить ценность неполной или выборочной информации. Для этого разовьем описанный выше пример с костью и монетой.
Лицо, производящее эксперимент, сообщает принимающему решение, "гербом" или "решеткой" помечена верхняя сторона не накрытого чашкой предмета. Ясно, что такое сообщение существенно повлияет на мнение принимающего решение о том, какой предмет накрыт чашкой. Интуитивно понятно, что при выпадении "герба" то, что не накрыта кость, более вероятно. Для количественной оценки степени устранения неопределенности используется теорема Байеса, утверждающая, что условная вероятность события А, если известно, что событие В наступило, равна P (A / B) = P (B / A) * P (A) / P (B).
Предположим, что в нашем эксперименте не накрыта монета. Тогда условная вероятность события а Р (а / То) = 1 / 2. Если же не накрытая кость – события Т1 , то Р ( а / Т1) = 2 / 3. Отсюда безусловная вероятность события а равна P (a) = P(a / To) P(To)+P (a / T1)P(T1)=7/12
В соответствии с теоремой Байеса вероятность того, что не накрыта кость, если известно, что выпал "герб", определится из выражения
P (T1/a) = P (a / T1)P(T1) / P (a) =4/7
Аналогично P (To / a) =3/7
Точно таким же образом найдем условие вероятности событий To и T1 после сообщения о том, что выпала "решетка" Р(T1 / b) = 3 / 5; Р(To / b) = 2 / 5; а Р(b)=1- P(a) =1-7 / 12 - 5 / 12.
Следовательно, при сообщении "герб" наилучшей догадкой является "кость", а ожидаемый доход равен 4 / 7 руб., при сообщении "решетка" наилучшая догадка - "монета", а ожидаемый доход – 3 / 5 руб. Ожидаемый доход при данной выборочной информации
Cbu=7/12*4/7+5/ 12*3/5=7/12 руб.
Ожидаемая ценность выборочной информации в нашем случае:
Qbu =7/ 12-1/ 2=1/12 руб.
При организации системы обработки информации в управлении производством часто оказывается удобно оперировать не количеством информации, а ее объемом, измеренным в той или иной системе единиц.