Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Бездудный, В. Г. Техника безопасности в шахтном строительстве

.pdf
Скачиваний:
5
Добавлен:
22.10.2023
Размер:
10.55 Mб
Скачать

либо сигналами от иных цивилизаций, она должна оцениваться с точки зрения уменьшения энтропии, существовавшей до поступления информации.

Другое дело, что, когда уже не удовлетворяются чисто статисти­ ческим характером оценки информации х, в понятие энтропия вкла­ дывают более богатое содержание. Пытаются оценить информацию с разных позиций. Ценность информации уже зависит от некоторых добавочных условий, например кому и когда направлена информация, т. е. ценность информации становится понятием относительным.

Ценность экономической информации. Проблемой ценности ин­ формации занимались многие ученые [2, 4, 11, 16, 22, 38]. И проблема давно была бы решена, если бы ценность информации подчинялась точным закономерностям. Однако при определении ценности инфор­ мации присутствует субъективный фактор. А там, где кончаются стро­ гие однозначные зависимости, кончается точная наука (если не кон­ чается наука вообще).

Единого критерия ценности информации нет и быть не может хотя бы потому, что невозможно найти единую единицу измерения ценности информации, которая однозначно удовлетворяла бы все возможные варианты определения ценности полученных данных. Могут быть частные критерии ценности информации. Например, материальный ущерб от неполучения информации. Единицей измере­ ния мог бы быть, скажем, рубль/час. Если удобно (или хотя бы воз­ можно) использовать вероятностные характеристики поступающей информации, критерием ценности информации может быть вероятность достижения цели и т. д .2

Частные критерии будут определяться конкретными задачами, решение которых потребует определения ценности информации. Такие задачи могут отличаться как характером, так и масштабом. Например, распределение дневной загрузки служащего. С утра, когда работо­ способность выше, надо решать более важные вопросы, а для этого надо определить относительную ценность принятия того или иного решения.

Ценность информации придется определять, когда мы столкнемся с проблемой информационной перегрузки высококвалифицированных работников (например, главных инженеров). Нужно будет научиться распределять информацию по рангам: кому что решать.

На вычислительном центре должен быть паритетный принцип выбора задач для решения на ЭВМ. Более важные задачи должны более тщательно контролироваться и обрабатываться в первую очередь. Такого же принципа следует придерживаться при обработке данных в АСУ. В первую очередь следует обрабатывать те данные, изменение которых приводит к изменению других данных. В этом случае крите-

1 Классическая теория информации базируется именно на такой оценке.

8 Этот критерий описан в работе Харкевича [38]. Ценность информации исчис­ ляется в битах. Способы определения ценности информации рассматриваются в этой же теме.

140

рием ценности может быть количество параметров системы, зависящих от изменения данного параметра.

Определение ценности информации в системе высшего образования позволит определить что читать, в какой последовательности, сколько часов выделять на курс. При переписке населения цель — определение возрастного, национального, количественного состава населения. С поступлением информации увеличивается вероятность достижения цели. В этом случае, с некоторыми оговорками, можно утверждать, что количество информации прямо пропорционально ее ценности.

Как видно даже из этих немногочисленных примеров, от правиль­ ного выбора критерия ценности информации зависит успех решения задачи.

Нет сомнения, что умелое обращение с информацией — такой же ресурс, как стандартизация, унификация, автоматизация. Вклады­ вать деньги в системы управления оказывается в 3 раза эффективнее, чем расширение производства. Поэтому и уделяется столько внимания автоматизированным системам управления, которые, по сути, являют­ ся информационно-управляющими системами, предназначенными, прежде всего, для автоматизации информационных процессов.

При изучении процессов, связанных с обработкой экономической информациих, следует четко различать три информационные характе­ ристики —- объем, количество и ценность. Соответственно процессу построения информационной системы должны предшествовать три подготовительных этапа..

Первый этап:

1)определение вероятностных характеристик информации, цир­ кулирующей в системе (сбор статистических данных, изучение до- кументо-потоков, прогнозирование);

2)определение характера пульсаций, аритмичности поступления информации (график объемов информации за квартал, за год, учет перенапряжения в конце отчетных периодов);

3)определение среднего объема обрабатываемой информации.

Второй этап:

1)определение количества информации с использованием получен­

ных статистических характеристик;

2)определение метода кодирования;

3)определение пропускной способности канала связи;

4)определение информационных потенциалов узлов обработки данных;

5)расчет объема вычислительных работ, мощности вычислитель­ ного и передающего комплексов, количества обслуживающего пер­ сонала.1

1 Под экономической информацией подразумеваются относящиеся к процессам управления народным хозяйством единичные сведения либо совокупности сведений, которые снимают неопределенность, существовавшую до их получения. В противном случае эти сведения несут дезинформацию. -

141

Третий этап:

1)выбор критерия (или критериев) ценности информации;

2)определение иерархии распределения информации (какую информацию следует давать директору, какую получать от него;

какую информацию давать главному инженеру, какую получать от него, и т. д.);

3)определение маршрутов движения информации;

4)определение порядка обработки информации;

5)построение модели информационной системы.

Определение объема информации, которое, в основном, сводится к подсчету числа символов, знаков, документо-строк, в настоящее время не представляет сложности. Мера Шеннона — Винера для опре­ деления количества информации хороша тем, что может быть примене­ на не только к сигналам, буквам, словам, блокам слов, но и к сово­ купностям предметов, событий, эмоций и т. д., если количество информа­ ции оценивается с точки зрения статистической частоты их появления. Она хороша еще и тем, что, в какой бы форме не передавались сообще­ ния, всегда более вероятным событиям соответствует меньшее коли­ чество информации и наоборот. Что касается качественной оценки информации, то на данном этапе развития семантики, прагматики и семиотики трудно рекомендовать какой-либо один из способов определения ценности информации, да и вряд ли стоит к этому стре­ миться. В зависимости от поставленной задачи пригодными могут быть различные способы. Поэтому рассмотрим, по нашему мнению, наиболее интересные из них.

Метод Харкевича предусматривает ценность информации для систем с ясно определенной целью выражать через приращения ве­ роятности ее достижения [38]. Если число возможных равновероятных исходов априорно составляет N0, а после получения информации со­ кратилось до N lt то количество полученной информации

^ — l°g2N0 — log2 = log2 . (101)

Если полученная информация должна способствовать достижению определенной цели, то ценность информации можно было бы опреде­ лить, узнав, насколько к поставленной цели приблизило нас получен­ ное сообщение.

В качестве иллюстрации этого положения А. А. Харкевич при­ водит несколько примеров. Цель, стоящая перед следователем,— рас­ крытие преступления. Информация, поступающая от свидетелей, уменьшает число версий и первоначальную неопределенность. Цель, стоящая перед игроком в карты,— выигрыш. Вначале о картах партнера можно судить только по своим картам. Затем, по мере выхода карт из игры, возрастает информация о том, какие карты на руках у партнера. Цель, стоящая перед разработчиком вакцины,— получение безопасного лечащего средства. Информация после каждого опыта на животных

142

способствует решению задачи. Цель, стоящая перед стрелком из ору­ дия с корректировкой,— попадение. Информация поступает в виде данных о предыдущих попаданиях и увеличивает вероятность достиже­ ния цели, так как позволяет вносить поправки, увеличивающие точ­ ность стрельбы.

Таким образом, в случае ясноопределенной цели ценность ин­ формации может быть выражена через вероятность достижения цели. Если до получения сообщения эта вероятность была р0>а после полу­ чения — p lt то ценность

/ = log2Pi — log2p0 = log3- ^ - .

(102)

г0

 

Выражения (101) и (102) не противоречат друг другу, если счи­ тать, что

Ро =

а это очевидно из следующих рассуждений. Вероятность рх достижения цели после получения сообщения будет тем больше, чем меньше оста­ лось равновероятных исходов после получения информации, т. е. чем меньше Nv

Рассмотрим числовой пример.

Пример 12. Имеется три схемы (рис. 32).

Для всех трех схем цель — попасть из точки 0 в точку X. Значения No = 2; Лй = 6.

О

0

0

Рис. 32. Иллюстрация к оценке количества информации для систем с определенной целью.

На основании полученной информации совершается-переход в точку 1. Благо­ приятные исходы изображены линиями, ведущими к цели. Определяем количества полученной информации для всех трех случаев:

число благоприятных исходов равно 3 (рис. 32, а)

Ро==1^

=

Л =

=

bga А =

log, 1 = 0 бшп;

число благоприятных исходов равно 1 (рис. 32, б)

 

Pi =

-Q- ;

Ро = - g - !

I — 1°2г г* =

1°ё‘23 =

1,58 бит',

143

число благоприятных исходов равно 4 (рис. 32, в)

1

;

4

2

 

2/,

l°g2 4/3 = 0,42 бит.

Ро = ~y

Pi = -g~ = — I

1 = l°g2 -j^r- =

Как видим, только для третьего случая полученная информация является по­

лезной.

 

 

 

 

 

 

Метод Бонгарда [2].

Если

задача а{ с вероятностью pt имеет от­

вет Ъи а для

его достижения следует произвести какое-то количество

экспериментов и

qt — вероятность удачного

их осуществления, то

среднее число опытов равно 1 /qt,

а неопределенность задачи а{

 

 

log l/qt =

— log q{.

 

Если вероятность такой

ситуации

равна рс,

то для множества задач

А = {а(} (г =

1,

2,..., п)

неопределенность

 

Я (Л) = - £ / > , log?,. i=i

Полезность информации определяется уменьшением неопределенности задачи. При этом значение q( приближается к значению pt.

Изменение неопределенности задачи с приходом сигнала выража­ ется как процесс запаса полезной информации в виде распределения вероятностей q. За нулевой уровень часто удобно принимать запас

полезной информации при q{ = — (t = 1, 2,..., п) и от него отсчи­

тывать полезную информацию. Количество полезной информации

1„ = Н 0( А ) - Н 1(А),

где Н0 и Я х следует понимать как неопределенности, существовавшие до и после прихода сообщения.

В этом случае запас полезной информации, содержащейся в гипотезе q относительно задачи с распределением вероятностей ответа р, может быть определен как

In = log п H(p/q),

где Н (p/q) следует понимать как условную энтропию события р от­ носительно события q. •

Рассмотрим числовой пример.

Пример 13. Сотрудник X хочет застать в учреждении, открытом с 10 до 18 ча­ сов, сотрудника Y, о котором известно, что он бывает там два часа ежедневно. Желая уточнить эти сведения, X обратился к знакомому, работающему в том же учрежде­ нии. Знакомый ответил, что Y бывает на работе после 14 часов в два раза чаще, чем до 14. После этого X позвонил секретарю в учреждение. Секретарь ответил: «К при­ нимает пять раз с 12 до 14 и один раз с 14 до 16. Ой, простите! Один раз с 12 до 14 и пять раз с 14 до 16». Какую полезную информацию получил X , если последний от­ вет секретаря был правильным: из ответа знакомого; из первого ответа секретаря; из второго ответа секретаря?

Запишем условие задачи в виде следующей таблицы:

144

т "

 

 

 

 

 

1 0 -1 2

1 2 -1 4

14— 16

16— 18

 

 

 

 

 

 

1

5

0

 

 

 

 

Pi

0

x

6

Гипотезы:

 

 

 

 

 

 

 

 

1

1

1

1

начальная

 

 

 

 

 

 

 

41

X

4

4

4

 

 

 

 

после сообщения знакомого

 

 

1

1

1

1

 

Яг

-g -

6

3

3

после первого ответа секретаря

Яз

0

5

1

0

6

X

после второго ответа секретаря

q4

0

1

' 5

0

X

X

Начальная

неопределенность

 

 

 

 

 

 

 

 

Я,

1

,

1

5 .

1

== log2 4 =

2 бит.

 

— т г

log2“Г -

g - loga —

 

Неопределенность после ответа знакомого

Я 1 =

- -

_1_

 

1

5

1

 

 

6

log2 - g - -----g- bg2

 

1.75

бит.

Неопределенность

после

первого

ответа секретаря

 

Я 2 =

-

 

1

,

5

5 ,

1

2,2

бит.

 

6

*“ь2 ~б

6" log21 Г !

Неопределенность

после

второго ответа секретаря

 

я 3 =

-

-g- bg2

 

— log2

 

0,65 бит.

Полезная информация,

полученная от знакомого,

 

 

 

 

 

 

/ П1 =

 

^0 ,2 5 .

 

 

Полезная информация,

полученная от секретаря,

 

 

 

 

 

 

Ai, — Н\

Я3 ^

1,1

 

 

потому, что неопределенность после разговора со знакомым стала меньше. Если бы не было разговора со знакомым, то полезная информация, полученная от секретаря,

/ ; г = Я 0- Я 3 ^ 1,35.

Первый ответ секретаря дал отрицательную величину полезной информации, т. е. внес дезинформацию в количестве

1щ = Нг— Нга — ЪАЬ.

Статистический метод оценки содержательности текста [50]

предусматривает использование показателя количества информации на одно высказывание со. Если обозначить через / (v) количество ин­ формации в тексте, а через v — количество высказываний в том же тексте, тоI

со =

I (t>)

V

 

145

Вобычных текстах количество высказываний не всегда совпадает

сколичеством предложений. Поэтому определение значения v сопря­ жено с некоторыми трудностями. Однако для весьма распространен­ ного в технико-экономической информации случая, когда высказыва­ ние является количественной характеристикой свойств отображаемого предмета, т. е. когда мы имеем дело с показателями, определение значения v не представляет труда, так как показатели имеют легко различимые признаки — количественные значения (основания).

Более детальная характеристика содержательности текста может быть дана в результате подсчета количества символов на одно выска-

Таблица 26

Вертикальная запись смешанных кодов

 

 

 

­

 

П редмет

Шифр пред­ мета

Единицы изме­

Шифр едини цы измере­ ния веса

Полный шифр

рения веса

 

 

Таблица 27

Шахматная запись смешанных кодов.

Кило­

Полный шифр

Лоты

граммы

Пуды

Фунты

Предмет

 

 

 

 

Фреза

1

Килограммы

0

10

Фреза

10

И

 

 

 

 

Пуды

1

11

12

13

 

 

Фунты

2

12

Станок

20

21

22

23

 

 

Лоты

3

13

Кран

30

31

32

33

Станок

2

Килограммы

0

20

 

 

 

 

>

 

 

Пуды

1

21

 

 

 

 

 

 

 

Фунты

2

22

зывание.

Так

как

одно и

Кран

3

Лоты

3

23

Килограммы

0

30

то же высказывание может

 

 

Пуды

1

31

быть выражено

предло­

 

 

Фунтй

2

32

жениями различной длины,

 

 

Лоты

3

33

то из группы равнознач­

ний большая

содержательность

 

ных по смыслу высказыва­

(информативность)

будет у

выска­

зываний, выраженных меньшим количеством символов. Показатель количества символов на одно высказывание

V

fi = — >

где I — количество символов в тексте.

Статистическими исследованиями установлено, что для самостоя­ тельного выражения показателя (вне текста) необходимо предложение из 60—70 символов. Выражение того же показателя в таблице с 10 графоклетками требует 25—30 символов, а в таблице с 1000 графоклет­ ками — четыре-пять символов на показатель. Такой рост информатив­ ности достигается за счет того, что в название таблицы выносится подлежащее и сказуемое реквизитов, общих для всего текста, а также за счет того, что в таблице может быть отражена взаимосвязь между показателями.

146

В качестве примера текстов с аналогичным содержанием и раз­ личной информативностью могут Служить табл. 26 и 27. Как видим, в табл. 27 то же содержание удалось выразить более компактно, мень­ шим количеством символов, т. е. повысить информативность текста. В этой таблице информационная нагрузка на символ больше, чем в табл. 26, т. е. каждый символ табл. 27 несет большее количество ин­ формации. В этом смысле величина ц может служить качественной характеристикой информации различных текстов, может характери­

зовать степень из содержательности.

 

 

Рассмотрим еще два подхода к оцен-

нш

 

ке информации. Е. С. Вентцель предла­

 

 

гает рассматривать ценность информа­

 

 

ции относительно

тезаруса1

приемника

 

 

информации [4], т. е. сравнивать

полу­

 

 

ченную информацию со сведениями, уже

 

 

имеющимися у приемника информации.

 

 

Чтобы понять информацию, содержа­

 

 

щуюся

в сообщении, в тезарус

прием­

 

 

ника должны входить сведения, позво­

 

 

ляющие

освоить

сообщение.

Попросту

 

 

говоря,

чтобы понять сообщение, необ-

о

 

ходимо

иметь определенный

минимум

Рис’

33. График зависимости ве­

знаний

по

вопросу, содержащемуся в

сообщении.

Если

сообщения

полезны,

™чп‘

ны тезарусного шума Нш от

:ни соответствия тезарусу Г.

то тезарус приемника обогащается, как обогащаются знаниями школьники, усваивая то, что им говорит учи­

тель. Если же сообщение не имеет ничего общего с тезарусом приемни­ ка информации и никоим образом не обогащает его, то принимаемая информация будет для такого приемника равняться нулю. Нулю же будет равна и ее ценность. Действие такой информации является тезарусным шумом и эквивалентно действию шумов при передаче информации по каналу связи с шумами. В этом смысле ценность ин­ формации будет максимальной в том случае, если потери от тезарусного шума будут минимальными (Яш = 0). Если же тезарус приемника не пересекается с принимаемой информацией или, наоборот, вся

принимаемая информация уже содержится в тезарусе Т, то Я ш

°°-

Графически это может быть представлено так, как на рис. 33.

Коли­

чество информации определяется как разность энтропии источника сообщений Я и и энтропии шумов Я ш, умноженная на количество сим­ волов в сообщении п

/ = п(На — Я ш).

(103)

1 Тезарус сокровищница (греч). Употребляется в значении толкового словаря энциклопедии. Запас знаний человека составляет его тезарус знаний.

147

В случае передачи информации по реальному каналу связи из выражения (103) следует вычесть величину неопределенности Ни, вносимую помехами в канале связи:

/ = п (# и — НшНп).

Как видим, при таком подходе к оценке информации значение I находится в прямо пропорциональной зависимости от содержания, смысла принимаемых сообщений.

Ф. Махлуп предлагает рассматривать информацию как продукт человеческого труда, производимый с применением все возрастающей массы ресурсов, в число которых входят такие дорогостоящие орудия производства, как ЭВМ. Так, в современных автоматизированных системах управления совершенно определенно разграничивают под­ систему технического обеспечения, куда входят ЭВМ, устройства передачи информации и др., и систему информационного и математи­ ческого обеспечения, содержащую программы, таблицы, словари, которые, не являясь непосредственно орудиями труда, являются средствами труда, информационными средствами. Эти информационные средства имеют вполне определенную потребительскую стоимость и обладают всеми свойствами продукта. Таким образом, информацию можно рассматривать как специфический продукт определенной сферы общественного производства, а стоимость информации и определяет ее экономическую ценность.

Заканчивая разговор об определении ценности информации, добавим лишь, что в ближайшее время, пока не будут найдены едини­ цы ценности информации (естественно, и методы измерения в этих единицах), вычисление количества информации будет встречать оп­ ределенные трудности. Гораздо более актуальной и практически раз­ решимой в настоящее время является задача выявления ценной ин­ формации. При построении информационных систем, рассчитывая пропускные способности каналов связи и информационные потенциалы узлов связи, проектировщики информацию будут считать в битах, дитах или натах, совершенно не задумываясь над возможной ценностью передаваемой информации. А вот уже в процессе эксплуатации информа­ ционной системы может возникнуть необходимость выяснения ценности информации с целью определения порядка ее поступления и направления.

Если на передающем конце заранее известна относительная цен­ ность передаваемой информации, то в процессе приема выделить ее из общего потока можно по определенным качественным признакам, заложенным в кодах. Обнаруживать такие признаки смогут несложные кибернетические устройства. Например, срочная информация может кодироваться всегда нечетным количеством единиц (речь идет о коди­ ровании двоичным кодом), а несрочная — четным. Эту задачу может ре­ шить триггер со счетным входом. Или, предположим, требуется опре­ деленный вид информации передать по особому каналу. Для этого достаточно первые три-четыре знака кода дать одинаковыми'(или вы­ делить для этой цели коды, начинающиеся, например, только с единиц

148

или только с нулей), и простейший интегратор с пороговым устрой­ ством выделит эту информацию из общего потока.

Что касается ценности информации, циркулирующей в данной системе, то, по мнению автора, она должна определяться по реакции системы на данное. сообщение. Если реакция такова, что в результате получения информации выходной показатель функционирования си­ стемы приближается к оптимальному значению, то информация имеет положительную ценность, и наоборот. Реакцию системы на различного рода сообщения следует обыгрывать на ЭВМ. При этом также может быть выявлено влияние точности и своевременности информации на выходные характеристики системы.

Экономические коды и шифры. Таким образом, мы убедились в том, что в теории информации и экономике можно по-разному толковать

иоценивать информацию. Очевидно, то же касается и таких понятий, как код и кодирование информации. Так, например, в справочнике [29] приведены два определения кода: код — множество сигналов, сопо­ ставленных по определенному признаку с множеством сообщений; код — система, принятая для обозначения номенклатуры. В самих этих определениях уже заложены некоторые различия, которые вкла­ дывают в понятие код экономисты и связисты.

Вданной книге с понятием код, мы привыкли связывать, прежде всего, представление о некотором законе, правиле, алгоритме перехода от одного вида информации к другому, и этого определения следует придерживаться независимо от того, о каком виде информации мы говорим (биологический код также представляет собой закон построе­ ния молекул данного вещества, либо закон связей между ними, либо закон наследственности). Тем не менее, существует своя специфика кодирования информации при передаче ее на расстояние, при механи­ зированной ее обработке и при кодировании номенклатур. Для того чтобы убедиться в этом, рассмотрим традиционные экономические коды

ишифры, особенности их построения и своевременные требования, предъявляемые к экономическим кодам. В практике обработки эконо­ мической информации широко применяются условные буквенные и цифровые обозначения отдельных позиций различных номенклатур. Шифр — условное обозначение конкретной позиции данной номен­ клатуры. Совокупность шифров, построенных по определенному ал­ горитму, образует экономический код. Например:

 

 

Шифр

Сталь

У1 .............................................

58943

Сталь

С т З ............................................

58800

Петров А.

Г.................................................

 

42171

Иванов С.

П ................................................

1 . . . .

05081

Склад черных металлов №

СЧМ-12

___________ Склад готовой продукции № 5

. . .

СГП-52

1Первая цифра означает номер цеха, вторая — участка, а две последние — номер по списку фамилий.

2Алфавитно-цифровые шифры} применяются для облегчения восприятия первич­ ных и сводных документов.

149

Соседние файлы в папке книги из ГПНТБ