- •Конспект книги а.Г. Мамиконова «Управление и информация понятие управления Задачи управления
- •Основные методы и функции управления
- •Теория принятия решений
- •Принятие решений в конфликтных ситуациях
- •Роль информации в управлении Понятие информации и ее характеристики
- •Информация в системах управления с обратной связью и управление при неполной информации
- •Информация о состоянии внешней среды и управляемого объекта
- •Свойства и характеристики информационных потоков в управлении Консервативность информационной системы
- •Семантическая ценность информации изменение ее во времени
- •Дерево целей и информации
- •Достоверность информации Источники, и причины искажения информации
- •Избыточность как средство повышения достоверности
- •Выявление недостоверной информации
- •Способы повышения достоверности
Роль информации в управлении Понятие информации и ее характеристики
Понятие «информация» может быть истолковано как некоторая совокупность сведений (сообщение), определяющих меру наших знаний о тех или иных событиях, явлениях, фактах и их взаимосвязи. Такое определение подчеркивает огромное многообразие содержания информации, которая проявляется в самых разнообразных физических, экономических и социальных явлениях.
Информация увеличивает, знания и углубляет интеллект. Она оценивается в зависимости от ее влияния на процесс принятия решений. Чтобы получить полезную информацию, пополняющую знания, необходимо анализировать факты и обрабатывать количественные и другие данные.
Однако такое понятие ничего не дает для построения количественной теории информации, в основе которой должно лежать указание на способ ее измерения.
Введение количественной меры информации является весьма сложной задачей. Одна и та же информация может вызывать различные эмоции и представлять равную ценность для разных людей. Иногда краткое сообщение из одной-двух фраз несет неизмеримо больше информации для конкретного индивидуума, чем текст из многих страниц. Из двух книг равного объема мы можем извлечь совершенно различную информацию.
Любое сообщение, с которым мы имеем дело в теории информация, представляет собой совокупность сведений о некоторой системе. Очевидно, что если бы состояние системы, было известно заранее, не было бы смысла передавать сообщение. Сообщение приобретает смысл только тогда, когда состояние системы заранее неизвестно, случайно.
Примером неопределенной ситуации является опыт с несколькими возможными исходами. Неопределенность ситуации заключается в том, что до проведения опыта мы не знаем в точности, какой из возможных исходов будет реализован. Информация, относящаяся к данному опыту, уменьшает его неопределенность. Количество информации при этом есть мера уменьшения неопределенности ситуации. Если все исходы равновероятны, то неопределенность ситуации зависит только от числа исходов, причем неопределенность тем больше, чем больше число исходов.
Р. Хартли в 1928 г. в качестве меры неопределенности ситуации с п равновозможными исходами предложил использовать величину Н=logп. Эта величина возрастает с ростом п и обладает свойством аддитивности. Неопределенность сложной ситуации, состоящей из нескольких независимых опытов, равна сумме неопределенности каждого опыта.
Действительно, если производятся два независимых опыта с n1 и n2 равновозможными исходами соответственно, то неопределенности опытов равны
H1= 1оgn1 и Н2=1оgn2.
Сложный опыт имеет п = n1*n2 равновозможных исходов , n=H1+H2
В формуле Хартли выбор основания логарифмов означает выбор единиц, в которых измеряется информация. Когда исходы неравновероятны, неопределенность зависит не только от числа исходов, но и от их вероятностей. Чаще всего используют логарифмы с основанием 2, получая информацию в двоичных единицах, или «бит» (bit — сокращение от binary digit— двоичная цифра).
В 1948 г. К. Шеннон предложил в качестве меры неопределенности опыта с п возможными исходами х1,х2… хn энтропию Н, определяемую но формуле, аналогичной термодинамической энтропии
, ___
где p(xi), i=1, n — вероятность исхода хi. Совокупность различных исходов опыта с их вероятностями может рассматриваться как множество значений случайной величины X с дискретным распределением р(хi), i=1, п.
Энтропия является естественным обобщением меры Хартли. В случае равновероятных исходов р(хi) = 1/n формула Шеннона дает Я=1оg2n. Энтропия удовлетворяет принципу аддитивности: энтропия сложной ситуации, обстоящей из нескольких независимых опытов, равна сумме энтропии каждого опыта.
При полной определенности опыта, когда заранее достоверно известен один исход, вероятность его появления равна 1, а всех остальных исходов равна нулю, энтропия равна нулю. Интуитивно ясно, что если исход опыта точно известен заранее, сообщение о результате опыта не несет никакой информации. Наоборот, если все возможные исходы равновероятны, что соответствует интуитивному представлению о состоянии наибольшей неопределенности, энтропия максимальна. Всякое изменение ситуации в сторону выравнивания вероятностей событий увеличивает энтропию. Если же мы узнаем что-то о результатах, знаем, что одни исходы более вероятны, чем другие, то энтропия уменьшается.
Пусть имеется множество X, состоящее из п возможных исходов x1, х2, ..., хi,..., хпнекоторого опыта, и множество У, состоящее из т возможных исходов y1, у2, .... yi,…, ym другого опыта. Обозначим через р(хi,yi) вероятность совместного появления исходов хi и yi.
Энтропия объединенного множества исходов обоих опытов
н (х, у) = .
Если опыты и их исходы полностью независимы, р (xi,yi)=p(хi)p(yj), и тогда
H(X,Y)=H(X)+H(Y).
Для зависимых опытов
H(X,Y)<H(X)+H(Y).
Интуитивно ясно, что если результаты двух опытов взаимосвязаны, т. е. результаты одного содержат некоторые сведения об исходах второго, то общее количество информации меньше, чем если бы они были независимы.
Пусть мы имеем два зависимых множества X и У. Зависимость между ними выражается в том, что для каждого исхода хi имеется условная вероятность того, что произойдет исход yj. Иными словами, вероятности исходов второго опыта зависят от того, каким был исход первого.
Условная вероятность р (уi/xi) исхода yj при условии, что исход первого опыта хi, определяется выражением:
Сумма вероятностей всех исходов второго опыта для каждого исхода первого опыта равна вероятности последнего:
откуда
p(xi,yi)=p(xi)p(yi/xi)
Учитывая также, что
из выражения для энтропии объединенного множества получим
Второй член правой части называют условной энтропией множества У. ^
По условию симметрии
Из полученных выражений для энтропии объединенного множества следует, что
,
откуда
H(Y) H(Y/X).
Из последнего выражения следует, что энтропия множества У никогда не возрастает в результате получения одного из сообщений об исходах множества X. Если соответствующие опыты независимы, то она остается неизменной, а при зависимых — уменьшается. Другими словами, если опыты связаны, получение информации о результате одного из них уменьшает неопределенность второго.
Условную энтропию удобно использовать для определения действия помех при передаче информации по каналу связи.
Будем считать, что источник сообщений передает последовательность букв и набора х1, х2, ..., хi, ..., хп, которые встречаются в достаточно длинной последовательности с вероятностями соответственно р(xi), р(х2), ...., p(xi), ...,р(хп).
На приемном конце происходит прием букв у1,y2 ... ..., уj, ..., уn, вероятности появления которых вследствие воздействия помех отличаются от вероятностей соответствующих букв x1 и имеют значения p(y1),p(y2),..,p(yj),…,p(yn)
В отсутствие помех передаче любой буквы из набора X однозначно соответствует прием вполне определенной буквы из набора У, например, при передаче х1 прием y1, при передаче хг прием уг и т. д. При наличии помех это однозначное соответствие нарушается и существует условная вероятность р (уi/хi,) того, что при передаче буквы хi будет принята буква уi (i ≠ 1). Обозначая вероятность совместного появления буквы хi при передаче и уj при приеме через р (хi yj), мы приводим этот случай к рассмотренному выше и можем записать выражение для энтропии совокупности передаваемых и принимаемых букв
H(X,Y)=H(X)+H(Y/X)
Величина условной энтропии Н(У/Х) в этом случае характеризует потерю информации, вызванную наличием помех. В отсутствие помет вероятность совместного появления не соответствующих друг другу букв равна нулю
P(xi,yj)=0, (i j)
и тогда
H(Y/X)=0.
В этом случае энтропия совместного множества равна энтропии исходного. С появлением влияния помех условная энтропия Н(У/Х) становится отличной от нуля и неопределенность ситуации возрастает.
Интересно, что здесь интуитивное представление о количественном влиянии помех на передачу сигналов оказывается неверным.
Действительно, пусть по каналу передаются только символы 0 и 1, причем вероятности их появления в длинной последовательности одинаковы.
Будем считать, что вследствие наличия помех в среднем на 100 передаваемых знаков одни принимается неправильно, т. е. при передаче 0 принимается 1 или наоборот. Кажется, что такое искажение 1% передаваемых знаков равносильно снижению пропускной способности канала на 1 %. На самом деле это не так. В месте приема неизвестно, какие именно из принятых знаков верны, а какие исказились. Если бы это было известно, легко было бы ввести соответствующие поправки и пропускная способность канала не снизилась бы вовсе; она снижается именно ввиду неопределенности.
Подсчитанная по значениям вероятностей условная энтропия Н(Y/Х) равна в этом случае 0,081, т. е. энтропия Н(Х, Y) = 1,081, а H(X) = 1. Это означает, что пропускная способность канала, по которому передаются с равной вероятностью символы 0 и 1, при искажении 1% передаваемых знаков снижается на 8,1%.
Количественная статистическая мера информации, имеет как сильные, так и слабые стороны. Достоинствами ее являются универсальность меры, ибо она применима к информации любого вида и содержания, объективность и независимость, ибо статистические показатели устанавливаются на основе эксперимента.
Для анализа работы и выбора оптимальных характеристик большинства технических систем передачи и преобразования информации эта мера оказывается достаточной и наиболее рациональной. Для случаев, когда должна приниматься во внимание семантика и ценность информации, она неприменима.
В теории передачи сообщений в человеко-машинных системах можно выделить три основных уровня проблем, требующих решения.
Уровень А. Насколько точно можно передать символы, применяемые для связи (техническая проблема).
Уровень Б. Насколько точно передаваемые символы, выражают желаемое значение (семантическая проблема).
Уровень В. Насколько эффективно влияет содержание принятого сообщения, его значение па развитие событий в желаемом направлении (проблема эффективности).
Если проблема уровня А в основном решается, как уже было сказано, с помощью классических методов теории информации, то с проблемами семантики и эффективности дело обстоит сложнее, хотя успешное их решение безусловно зависит от решения технических вопросов. В системах связи рассматривается, прежде всего, структура и механизм точной передачи символов. При рассмотрении же взаимосвязей между людьми первостепенными являются другие, не технические проблемы.
Информацию об объекте можно рассматривать как отображение этого объекта в некоторой материальной системе, которое может существовать независимо от самого объекта и независимо от того, будет ли эта информация кем-то и когда-то использована. Однако, если информация как некоторое отображение может существовать независимо от человека, то говорить о ценности информации, о ее потребительской стоимости можно только в связи с человеком, который эту информацию потребляет, в связи с процессом, где она используется. Это вызвано тем, что различное понимание того или иного слова может сильно изменить смысл передаваемого сообщения. В процессе кодирования и передачи содержания сообщения какая-либо его часть может быть утеряна. Например, письменные замечания руководителя не могут в точности отразить то; что он чувствует и думает, сталкиваясь с некоторой ситуацией. Поэтому личная беседа руководителя с подчиненными может помочь разъяснить им тот или иной спорный вопрос, но даже в этом случае интонация и выражение лица руководителя могут значительно изменить смысл рассматриваемых сообщений. Графическая иллюстрация расширяет возможности для уточнения сообщения, так как «лучше один раз увидеть, чем сто раз услышать».
Правильно зашифрованное и переданное сообщение может быть понято по-разному. Люди читают, видят и слышат, как правило, то, что они хотят читать, видеть и слышать. Восприятие человеком окружающей среды зависит от многих факторов, в частности, от общей: суммы накопленного им опыта. Работа администрации окажется неэффективной, если она не будет следить за тем, чтобы передаваемая ею информация воспринималась точно, и не будет стремиться по возможности минимизировать влияние субъективного подхода к восприятию сообщений среди подчиненных и других лиц. Правильное понимание сообщений облегчается в том случае, если имеются средства и время для осуществления проверки с помощью обратной связи.
В связи с понятием семантики в отдельных случаях полезно установить различие между данными и информацией. Данные могут рассматриваться как признаки или записанные наблюдения, которые в данный момент не оказывают воздействия на поведение, на принятие решений. Однако данные превращаются в информацию, если такое воздействие существует. Например, основной массив данных для ЭВМ состоит из таких признаков, которые не воздействуют на поведение. Пока эти данные не организованы соответствующим образом и не отражаются в виде выходного результата, чтобы руководитель действовал в соответствии с ними, они не являются информацией. Они остаются данными до тех пор, пока сотрудник не обратится к ним в связи с осуществлением тех или иных действий, или в связи с некоторым решением, которое он обязан принять. Данные превращаются в информацию, когда осознается их значение. С точки зрения принятия решений можно утверждать, что информацией являются используемые данные. К сожалению, некоторые автоматизированные системы используются в качестве систем обработки данных, а не информационных систем.
Подобно веществу и энергии, данные можно собирать, обрабатывать, хранить, изменять их формы. Однако у них есть некоторые особенности. Прежде всего, данные могут создаваться и исчезать. Так, например, данные о некотором вымершем животном могут исчезнуть, когда сжигается кусок угля с его отпечатком. Данные могут стираться, терять точность и т. д. Данные могут быть охарактеризованы циклом «жизни» (рис. 2), в котором основное значение имеют три аспекта — зарождение, обработка, хранение и поиск.
хранение
поиск
Сортировка
Оценка использования
Генерация данных
Оценка
Обработка
Синтез
Уничтожение
Рис.2. Цикл “жизни” данных
Воспроизведение и использование данных может осуществляться в различные моменты их цикла жизни и поэтому на схеме не показаны. Выработанные системой данные должны быть отражены на материальном носителе и храниться в течение определенного времени. В связи с, этим можно выделить следующие операции:
— хранение; данные или информация появляются в результате наблюдения и регистрации некоторого явления. Прежде чем они могут быть обработаны или использованы, они должны храниться в какой-либо памяти на материальном носителе.
— преобразование данных. Хранящиеся, данные могут быть преобразованы в некоторую более удобную форму для хранения, преобразования, восприятия и т. д.
— передача. Данные непрерывно передаются в пространстве от источника к запоминающему устройству, устройству обработки, преобразователю для принятия решений и т. д.
— сортировка, синтез, обработка. Обычно данные поступают в случайном порядке. Для уменьшения времени поиска требуемых данных, их обработки необходима их предварительная сортировка по заданным признакам. Нередко требуется объединить, агрегировать ряд отдельных данных для получения полного сообщения. Количественные данные приходится обрабатывать в целях изменения их формы или выявления их значений, решая уравнения или применяя формульные выражения.
— использование. После преобразования данных в удобную для использования форму они воспроизводятся в качестве информации, необходимой для принятия решений.
— оценка. Значение данных зависит от потребности в них, достоверности, надежности и своевременности. Массивы данных должны систематически пересматриваться с целью устранения устаревших бесполезных данных.
— уничтожение данных может осуществляться после их многократного использования либо при отнесении их к классу устаревших. Уничтожение данных является концом цикла их жизни.
Рассмотрим некоторые наиболее важные характерные особенности информации для человеко-машинных систем.
Целевое назначение. Информация имеет определенную цель в момент передачи ее для использования, в противном случае это просто данные или шумы. Одна и та же информация может иметь многоцелевое назначение. Создание полых концепций, установление проблем, решение проблем, принятие решений, планирование, оперативное управление, контроль, поиск являются основными целями информации в человеко-машинных системах.
Ценность информации. Под ценностью информации, или ее потребительской стоимостью, понимается тот материальный эффект, который дает использование данной информации. С этой точки зрения можно считать, что ценность информации определяется характером объекта и истинностью сообщений. В значительной степени ценность информации зависит от способа н скорости ее передачи, надежности, старения и прочих факторов.
Однако ответ на вопрос о ценности информации в реальных условиях может быть слишком сложным и дорогостоящим. Если система формирования сообщений и доставки информации идеальна с точки зрения достоверности и других факторов, ценность определяется только функцией старения, которая в различных системах имеет различный вид. Зависимость ценности информации от объема сообщений обычно имеет нелинейный характер — ценность возрастает медленнее, чем объем.
Сознательное искажение действительности называют дезинформацией.
Надежность и достоверность. Достоверность информации характеризует, в какой степени эта информация отражает то, что она должна отражать. Надежность характеризует скорее технические возможности средств передачи и обработки информации. Информация может быть надежной, но не достоверной, и наоборот.
Избыточность. Понятие избыточности имеет важное значение при построении систем. В такой системе, где стоимость ошибки в результате неправильного преобразования команд или выхода из строя какого-либо элемента может иметь практическое значение, должно быть предусмотрено создание значительной избыточности информации. Увеличение избыточности приводит к увеличению объема сообщения (без увеличения его информативности), а следовательно, к увеличению времени доставки и ее удорожанию. Повышение достоверности с обнаружением и исправлением ошибок может быть достигнуто, если избыточность вводить в информацию путем передачи значений дополнительных признаков, связанных с теми, значения которых необходимо передать.
Быстродействие. Скорость передачи и приема информации человеком определяется временем, необходимым для понимания ситуации на объекте. Скорость работы технических устройств системы определяется количеством данных, обрабатываемых или передаваемых в единицу времени. Высокая скорость передачи информации представляет интерес для систем, действующих; в реальном времени, например, для управления беспилотными космическими аппаратами.
Периодичность. Периодичность, или частота, передачи . информации, связана с необходимостью принятия решений. Плановая информация требуется сравнительно редко. На уровнях оперативного управления поступление информации требуется с периодичностью, соответствующей происходящим реальным событиям. Периодичность передачи или поступления информации оказывает существенное влияние па ее ценность. Редкие сообщения могут потерять всякую ценность и не нести никакой информации. Слишком частое поступление информации может оказаться помехой, отвлекающей внимание и вызывающей перегрузку человека, воспринимающего эту информацию.
Детерминистический или вероятностный характер информации. Информация о прошлом является детерминистической. Информация же о будущем всегда содержит элемент неопределенности. Зачастую некоторая информация считается определенной в том смысле, что считают бесспорным существование некоторого значения той или иной величины (например, нормы расхода материалов и т. д.). Однако даже в этом случае имеется некоторая неопределенность, связанная с вероятностью изменения этой величины в будущем.
Затраты. Как вещество и энергия, информация требует затрат на ее получение. Затраты на информацию определяются тем общественно-полезным трудом, который затрачивается на сбор, хранение, обработку и поиск информации. Они обычно довольно существенны. Поэтому прежде чем пытаться получить какую-либо информацию, нужно сравнить ее ценность с затратами на получение.
Непрерывность и дискретность. Информация может быть представлена в непрерывной форме для выдачи непрерывных данных или дискретной.
Большая часть информации в организационных системах является дискретной. Информационные системы, функционирующие в реальном времени, выдают информацию непрерывно в виде функции времени, однако сотрудники на основе такой информации никогда не принимают решения в таком же темпе. Непрерывная информация может быть представлена в дискретной форме, и наоборот.
Способ и форма. Основными способами выдачи информации в человеко-машинных системах являются визуальный и звуковой. Форма также является общей характеристикой для человека и машины. Люди получают большую часть информации в виде документов определенной формы. Широкое распространение получает так называемый видеодисплей. В ЭВМ информация вводится с перфокарт, перфолент, штрих документов, стилизованного печатного текста и т. д.