Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Книга для рефератов.doc
Скачиваний:
7
Добавлен:
27.09.2019
Размер:
617.47 Кб
Скачать

Роль информации в управлении Понятие информации и ее характеристики

Понятие «информация» может быть истолковано как некоторая совокупность сведений (сообщение), определя­ющих меру наших знаний о тех или иных событиях, явле­ниях, фактах и их взаимосвязи. Такое определение подчер­кивает огромное многообразие содержания информации, которая проявляется в самых разнообразных физических, экономических и социальных явлениях.

Информация увеличивает, знания и углубляет интел­лект. Она оценивается в зависимости от ее влияния на про­цесс принятия решений. Чтобы получить полезную инфор­мацию, пополняющую знания, необходимо анализировать факты и обрабатывать количественные и другие данные.

Однако такое понятие ничего не дает для построения ко­личественной теории информации, в основе которой должно лежать указание на способ ее измерения.

Введение количественной меры информации является весьма сложной задачей. Одна и та же информация может вызывать различные эмоции и представлять равную ценность для разных людей. Иногда краткое сообщение из одной-двух фраз несет неизмеримо больше информации для конкретного индивидуума, чем текст из многих страниц. Из двух книг равного объема мы можем извлечь совершен­но различную информацию.

Любое сообщение, с которым мы имеем дело в теории информация, представляет собой совокупность сведений о некоторой системе. Очевидно, что если бы состояние сис­темы, было известно заранее, не было бы смысла переда­вать сообщение. Сообщение приобретает смысл только тог­да, когда состояние системы заранее неизвестно, случайно.

Примером неопределенной ситуации является опыт с несколькими возможными исходами. Неопределенность си­туации заключается в том, что до проведения опыта мы не знаем в точности, какой из возможных исходов будет реализован. Информация, относящаяся к данному опыту, уменьшает его неопределенность. Количество информации при этом есть мера уменьшения неопределенности ситуа­ции. Если все исходы равновероятны, то неопределенность ситуации зависит только от числа исходов, причем неопре­деленность тем больше, чем больше число исходов.

Р. Хартли в 1928 г. в качестве меры неопределенности ситуации с п равновозможными исходами предложил ис­пользовать величину Н=logп. Эта величина возрастает с ростом п и обладает свойством аддитивности. Неопределен­ность сложной ситуации, состоящей из нескольких незави­симых опытов, равна сумме неопределенности каждого опыта.

Действительно, если производятся два независимых опыта с n1 и n2 равновозможными исходами соответствен­но, то неопределенности опытов равны

H1= 1оgn1 и Н2=1оgn2.

Сложный опыт имеет п = n1*n2 равновозможных исходов , n=H1+H2

В формуле Хартли выбор основания логарифмов озна­чает выбор единиц, в которых измеряется информация. Когда исходы неравновероятны, неопределенность зависит не только от числа исходов, но и от их вероятностей. Чаще всего используют логарифмы с основанием 2, получая ин­формацию в двоичных единицах, или «бит» (bit — сокраще­ние от binary digit— двоичная цифра).

В 1948 г. К. Шеннон предложил в качестве меры неоп­ределенности опыта с п возможными исходами х1,х2… хn энтропию Н, определяемую но формуле, аналогичной тер­модинамической энтропии

, ___

где p(xi), i=1, n — вероятность исхода хi. Совокупность различных исходов опыта с их вероятностями может рас­сматриваться как множество значений случайной величины X с дискретным распределением р(хi), i=1, п.

Энтропия является естественным обобщением меры Хартли. В случае равновероятных исходов р(хi) = 1/n формула Шеннона дает Я=1оg2n. Энтропия удовлетво­ряет принципу аддитивности: энтропия сложной ситуации, обстоящей из нескольких независимых опытов, равна сум­ме энтропии каждого опыта.

При полной определенности опыта, когда заранее досто­верно известен один исход, вероятность его появления рав­на 1, а всех остальных исходов равна нулю, энтропия равна нулю. Интуитивно ясно, что если исход опыта точно изве­стен заранее, сообщение о результате опыта не несет ника­кой информации. Наоборот, если все возможные исходы равновероятны, что соответствует интуитивному представ­лению о состоянии наибольшей неопределенности, энтро­пия максимальна. Всякое изменение ситуации в сторону выравнивания вероятностей событий увеличивает энтро­пию. Если же мы узнаем что-то о результатах, знаем, что одни исходы более вероятны, чем другие, то энтропия уменьшается.

Пусть имеется множество X, состоящее из п возможных исходов x1, х2, ..., хi,..., хпнекоторого опыта, и множество У, состоящее из т возможных исходов y1, у2, .... yi,…, ym другого опыта. Обозначим через р(хi,yi) вероятность сов­местного появления исходов хi и yi.

Энтропия объединенного множества исходов обоих опытов

н (х, у) = .

Если опыты и их исходы полностью независимы, р (xi,yi)=p(хi)p(yj), и тогда

H(X,Y)=H(X)+H(Y).

Для зависимых опытов

H(X,Y)<H(X)+H(Y).

Интуитивно ясно, что если результаты двух опытов взаи­мосвязаны, т. е. результаты одного содержат некоторые сведения об исходах второго, то общее количество информа­ции меньше, чем если бы они были независимы.

Пусть мы имеем два зависимых множества X и У. Зави­симость между ними выражается в том, что для каждого исхода хi имеется условная вероятность того, что произой­дет исход yj. Иными словами, вероятности исходов второго опыта зависят от того, каким был исход первого.

Условная вероятность р (уi/xi) исхода yj при условии, что исход первого опыта хi, определяется выражением:

Сумма вероятностей всех исходов второго опыта для каждого исхода первого опыта равна вероятности послед­него:

откуда

p(xi,yi)=p(xi)p(yi/xi)

Учитывая также, что

из выражения для энтропии объединенного множества получим

Второй член правой части называют условной энтропией множества У. ^

По условию симметрии

Из полученных выражений для энтропии объединенно­го множества следует, что

,

откуда

H(Y) H(Y/X).

Из последнего выражения следует, что энтропия мно­жества У никогда не возрастает в результате получения одного из сообщений об исходах множества X. Если соот­ветствующие опыты независимы, то она остается неизмен­ной, а при зависимых — уменьшается. Другими словами, если опыты связаны, получение информации о результате одного из них уменьшает неопределенность второго.

Условную энтропию удобно использовать для определе­ния действия помех при передаче информации по каналу связи.

Будем считать, что источник сообщений передает по­следовательность букв и набора х1, х2, ..., хi, ..., хп, которые встречаются в достаточно длинной последовательности с вероятностями соответственно р(xi), р(х2), ...., p(xi), ...,р(хп).

На приемном конце происходит прием букв у1,y2 ... ..., уj, ..., уn, вероятности появления которых вследствие воз­действия помех отличаются от вероятностей соответствую­щих букв x1 и имеют значения p(y1),p(y2),..,p(yj),…,p(yn)

В отсутствие помех передаче любой буквы из набора X однозначно соответствует прием вполне определенной буквы из набора У, например, при передаче х1 прием y1, при передаче хг прием уг и т. д. При наличии помех это одно­значное соответствие нарушается и существует условная вероятность р (уi/хi,) того, что при передаче буквы хi будет принята буква уi (i1). Обозначая вероятность совмест­ного появления буквы хi при передаче и уj при приеме че­рез р (хi yj), мы приводим этот случай к рассмотренному выше и можем записать выражение для энтропии совокуп­ности передаваемых и принимаемых букв

H(X,Y)=H(X)+H(Y/X)

Величина условной энтропии Н(У/Х) в этом случае характеризует потерю информации, вызванную наличием помех. В отсутствие помет вероятность совместного появ­ления не соответствующих друг другу букв равна нулю

P(xi,yj)=0, (i j)

и тогда

H(Y/X)=0.

В этом случае энтропия совместного множества равна энтропии исходного. С появлением влияния помех условная энтропия Н(У/Х) становится отличной от нуля и неопре­деленность ситуации возрастает.

Интересно, что здесь интуитивное представление о ко­личественном влиянии помех на передачу сигналов оказы­вается неверным.

Действительно, пусть по каналу передаются только символы 0 и 1, причем вероятности их появления в длин­ной последовательности одинаковы.

Будем считать, что вследствие наличия помех в среднем на 100 передаваемых знаков одни принимается неправиль­но, т. е. при передаче 0 принимается 1 или наоборот. Ка­жется, что такое искажение 1% передаваемых знаков равносильно снижению пропускной способности канала на 1 %. На самом деле это не так. В месте приема неизвестно, какие именно из принятых знаков верны, а какие искази­лись. Если бы это было известно, легко было бы ввести соответствующие поправки и пропускная способность ка­нала не снизилась бы вовсе; она снижается именно ввиду неопределенности.

Подсчитанная по значениям вероятностей условная энтропия Н(Y/Х) равна в этом случае 0,081, т. е. энтропия Н(Х, Y) = 1,081, а H(X) = 1. Это означает, что пропускная способность канала, по которому передаются с равной вероятностью символы 0 и 1, при искажении 1% переда­ваемых знаков снижается на 8,1%.

Количественная статистическая мера информации, имеет как сильные, так и слабые стороны. Достоинствами ее являются универсальность меры, ибо она применима к информации любого вида и содержания, объективность и независимость, ибо статистические показатели устанавли­ваются на основе эксперимента.

Для анализа работы и выбора оптимальных характери­стик большинства технических систем передачи и преобра­зования информации эта мера оказывается достаточной и наиболее рациональной. Для случаев, когда должна прини­маться во внимание семантика и ценность информации, она неприменима.

В теории передачи сообщений в человеко-машинных системах можно выделить три основных уровня проблем, требующих решения.

Уровень А. Насколько точно можно передать символы, применяемые для связи (техническая проблема).

Уровень Б. Насколько точно передаваемые символы, выражают желаемое значение (семантическая проблема).

Уровень В. Насколько эффективно влияет содержание принятого сообщения, его значение па развитие событий в желаемом направлении (проблема эффективности).

Если проблема уровня А в основном решается, как уже было сказано, с помощью классических методов теории информации, то с проблемами семантики и эффективности дело обстоит сложнее, хотя успешное их решение безуслов­но зависит от решения технических вопросов. В системах связи рассматривается, прежде всего, структура и механизм точной передачи символов. При рассмотрении же взаимо­связей между людьми первостепенными являются другие, не технические проблемы.

Информацию об объекте можно рассматривать как отображение этого объекта в некоторой материальной си­стеме, которое может существовать независимо от самого объекта и независимо от того, будет ли эта информация кем-то и когда-то использована. Однако, если информация как некоторое отображение может существовать независи­мо от человека, то говорить о ценности информации, о ее потребительской стоимости можно только в связи с человеком, который эту информацию потребляет, в связи с про­цессом, где она используется. Это вызвано тем, что различ­ное понимание того или иного слова может сильно изменить смысл передаваемого сообщения. В процессе кодирования и передачи содержания сообщения какая-либо его часть может быть утеряна. Например, письменные замечания руководителя не могут в точности отразить то; что он чув­ствует и думает, сталкиваясь с некоторой ситуацией. По­этому личная беседа руководителя с подчиненными может помочь разъяснить им тот или иной спорный вопрос, но даже в этом случае интонация и выражение лица руково­дителя могут значительно изменить смысл рассматривае­мых сообщений. Графическая иллюстрация расширяет возможности для уточнения сообщения, так как «лучше один раз увидеть, чем сто раз услышать».

Правильно зашифрованное и переданное сообщение может быть понято по-разному. Люди читают, видят и слы­шат, как правило, то, что они хотят читать, видеть и слы­шать. Восприятие человеком окружающей среды зависит от многих факторов, в частности, от общей: суммы накоп­ленного им опыта. Работа администрации окажется неэф­фективной, если она не будет следить за тем, чтобы пере­даваемая ею информация воспринималась точно, и не будет стремиться по возможности минимизировать влияние субъективного подхода к восприятию сообщений среди под­чиненных и других лиц. Правильное понимание сообщений облегчается в том случае, если имеются средства и время для осуществления проверки с помощью обратной связи.

В связи с понятием семантики в отдельных случаях полезно установить различие между данными и информа­цией. Данные могут рассматриваться как признаки или записанные наблюдения, которые в данный момент не ока­зывают воздействия на поведение, на принятие решений. Однако данные превращаются в информацию, если такое воздействие существует. Например, основной массив дан­ных для ЭВМ состоит из таких признаков, которые не воз­действуют на поведение. Пока эти данные не организованы соответствующим образом и не отражаются в виде выход­ного результата, чтобы руководитель действовал в соот­ветствии с ними, они не являются информацией. Они остаются данными до тех пор, пока сотрудник не обратится к ним в связи с осуществлением тех или иных действий, или в связи с некоторым решением, которое он обязан принять. Данные превращаются в информацию, когда осознается их значение. С точки зрения принятия решений можно утверждать, что информацией являются исполь­зуемые данные. К сожалению, некоторые автоматизирован­ные системы используются в качестве систем обработки данных, а не информационных систем.

Подобно веществу и энергии, данные можно собирать, обрабатывать, хранить, изменять их формы. Однако у них есть некоторые особенности. Прежде всего, данные могут создаваться и исчезать. Так, например, данные о некотором вымершем животном могут исчезнуть, когда сжигается ку­сок угля с его отпечатком. Данные могут стираться, те­рять точность и т. д. Данные могут быть охарактери­зованы циклом «жизни» (рис. 2), в котором основное зна­чение имеют три аспекта — зарождение, обработка, хранение и поиск.

хранение

поиск

Сортировка

Оценка

использования

Генерация

данных

Оценка

Обработка

Синтез

Уничтожение

Рис.2. Цикл “жизни” данных

Воспроизведение и использование данных может осуществляться в различные моменты их цикла жизни и поэтому на схеме не показаны. Выработанные системой данные должны быть отражены на материальном носителе и храниться в течение определенного времени. В связи с, этим можно выделить следующие операции:

— хранение; данные или информация появляются в результате наблюдения и регистрации некоторого явления. Прежде чем они могут быть обработаны или использованы, они должны храниться в какой-либо памяти на материальном носителе.

— преобразование данных. Хранящиеся, данные могут быть преобразованы в некоторую более удобную форму для хранения, преобразования, восприятия и т. д.

— передача. Данные непрерывно передаются в прост­ранстве от источника к запоминающему устройству, уст­ройству обработки, преобразователю для принятия реше­ний и т. д.

— сортировка, синтез, обработка. Обычно данные посту­пают в случайном порядке. Для уменьшения времени пои­ска требуемых данных, их обработки необходима их пред­варительная сортировка по заданным признакам. Нередко требуется объединить, агрегировать ряд отдельных данных для получения полного сообщения. Количественные данные приходится обрабатывать в целях изменения их формы или выявления их значений, решая уравнения или применяя формульные выражения.

— использование. После преобразования данных в удобную для использования форму они воспроизводятся в качестве информации, необходимой для принятия решений.

— оценка. Значение данных зависит от потребности в них, достоверности, надежности и своевременности. Массивы данных должны систематически пересматриваться с целью устранения устаревших бесполезных данных.

— уничтожение данных может осуществляться после их многократного использования либо при отнесении их к классу устаревших. Уничтожение данных является концом цикла их жизни.

Рассмотрим некоторые наиболее важные характерные особенности информации для человеко-машинных систем.

Целевое назначение. Информация имеет определенную цель в момент передачи ее для использования, в противном случае это просто данные или шумы. Одна и та же инфор­мация может иметь многоцелевое назначение. Создание полых концепций, установление проблем, решение проблем, принятие решений, планирование, оперативное управление, контроль, поиск являются основными целями информации в человеко-машинных системах.

Ценность информации. Под ценностью информации, или ее потребительской стоимостью, понимается тот мате­риальный эффект, который дает использование данной информации. С этой точки зрения можно считать, что ценность информации определяется характером объекта и истинностью сообщений. В значительной степени ценность информации зависит от способа н скорости ее передачи, надежности, старения и прочих факторов.

Однако ответ на вопрос о ценности информации в реаль­ных условиях может быть слишком сложным и дорогостоя­щим. Если система формирования сообщений и доставки информации идеальна с точки зрения достоверности и дру­гих факторов, ценность определяется только функцией старения, которая в различных системах имеет различный вид. Зависимость ценности информации от объема сообще­ний обычно имеет нелинейный характер — ценность возра­стает медленнее, чем объем.

Сознательное искажение действительности называют дезинформацией.

Надежность и достоверность. Достоверность информа­ции характеризует, в какой степени эта информация отра­жает то, что она должна отражать. Надежность характери­зует скорее технические возможности средств передачи и обработки информации. Информация может быть надежной, но не достоверной, и наоборот.

Избыточность. Понятие избыточности имеет важное значение при построении систем. В такой системе, где стоимость ошибки в результате неправильного преобразо­вания команд или выхода из строя какого-либо элемента может иметь практическое значение, должно быть преду­смотрено создание значительной избыточности информа­ции. Увеличение избыточности приводит к увеличению объема сообщения (без увеличения его информативности), а следовательно, к увеличению времени доставки и ее удорожанию. Повышение достоверности с обнаружением и исправлением ошибок может быть достигнуто, если из­быточность вводить в информацию путем передачи значе­ний дополнительных признаков, связанных с теми, значе­ния которых необходимо передать.

Быстродействие. Скорость передачи и приема инфор­мации человеком определяется временем, необходимым для понимания ситуации на объекте. Скорость работы технических устройств системы определяется количеством данных, обрабатываемых или передаваемых в единицу времени. Высокая скорость передачи информации пред­ставляет интерес для систем, действующих; в реальном времени, например, для управления беспилотными косми­ческими аппаратами.

Периодичность. Периодичность, или частота, передачи . информации, связана с необходимостью принятия реше­ний. Плановая информация требуется сравнительно ред­ко. На уровнях оперативного управления поступление информации требуется с периодичностью, соответствующей происходящим реальным событиям. Периодичность пере­дачи или поступления информации оказывает существен­ное влияние па ее ценность. Редкие сообщения могут потерять всякую ценность и не нести никакой информа­ции. Слишком частое поступление информации может оказаться помехой, отвлекающей внимание и вызывающей перегрузку человека, воспринимающего эту информацию.

Детерминистический или вероятностный характер ин­формации. Информация о прошлом является детермини­стической. Информация же о будущем всегда содержит элемент неопределенности. Зачастую некоторая информа­ция считается определенной в том смысле, что считают бесспорным существование некоторого значения той или иной величины (например, нормы расхода материалов и т. д.). Однако даже в этом случае имеется некоторая неопределенность, связанная с вероятностью изменения этой величины в будущем.

Затраты. Как вещество и энергия, информация требует затрат на ее получение. Затраты на информацию определяются тем общественно-полезным трудом, который затра­чивается на сбор, хранение, обработку и поиск информации. Они обычно довольно существенны. Поэтому прежде чем пытаться получить какую-либо информацию, нужно сравнить ее ценность с затратами на получение.

Непрерывность и дискретность. Информация может быть представлена в непрерывной форме для выдачи не­прерывных данных или дискретной.

Большая часть информации в организационных сис­темах является дискретной. Информационные системы, функционирующие в реальном времени, выдают инфор­мацию непрерывно в виде функции времени, однако со­трудники на основе такой информации никогда не прини­мают решения в таком же темпе. Непрерывная информа­ция может быть представлена в дискретной форме, и на­оборот.

Способ и форма. Основными способами выдачи ин­формации в человеко-машинных системах являются ви­зуальный и звуковой. Форма также является общей харак­теристикой для человека и машины. Люди получают большую часть информации в виде документов определен­ной формы. Широкое распространение получает так на­зываемый видеодисплей. В ЭВМ информация вводится с перфокарт, перфолент, штрих документов, стилизованно­го печатного текста и т. д.