Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Бездудный, В. Г. Техника безопасности в шахтном строительстве

.pdf
Скачиваний:
11
Добавлен:
22.10.2023
Размер:
10.55 Mб
Скачать

Задачи к теме 3

1. Определить:

log2 4б;

Ig45;

log2yT6; lg уОб;

Ioga

;

log, - Ц - ;

 

 

lg 5;

l g - j - ;

lg 12.

 

 

 

Преобразовать:

loga (XKZ);

loga

-xyz- ;

k loga X

k loga Y -f

k loga Z.

2.Как определить количество информации в сообщении, если известно макси­ мально возможное количество сообщений? Как определить количество информации

всообщении, если известно количество качественных признаков (алфавит) сообще­ ний и количество символов в каждом сообщении? Привести примеры.

3.Символы алфавита обладают двумя качественными признаками. Какое ко­ личество сообщений можно получить, комбинируя по три, четыре, пять, шесть эле­ ментов в сообщении?

4.Сколькими способами можно передать положение фигур на шахматной дос­ ке? Чему равно количество информации в каждом случае?

5.В алфавите три буквы: А, В я С. Составить максимальное количество со­ общений, комбинируя по три буквы в сообщении.

6.Какое количество информации приходится на букву алфавита, состоящего из 16 букв, 25, 32?

7.Чему равно количество информации в сообщении, переданном в двоичном коде пятизначной комбинацией? Двумя пятизначными комбинациями?

8.Чему равно количество информации при получении восьми сообщений че­ тырехзначного троичного кода?

9.Чему равно количество информации о выходе из строя одного из восьми стан­ ков, полученных в одно и то же время с'одного и того же завода?

ЭНТРОПИЯ. СВОЙСТВА ЭНТРОПИИ

Как уже было сказано, понятие информация связано со снятием неоп­ ределенности, которая существовала до получения сообщения. И чем большая неопределенность была до передачи сообщения, тем большее количество информации содержится в принятом сообщении.

Предположим, в урне находится 100 шаров: 99

черных и один

белый. Вынимаем шар, передаем сообщение, какого

цвета был шар,

в какой-то условный пункт приема, ложим этот шар

обратно в урну,

перемешиваем шары и повторяем процедуру. Вероятности получения сообщения о том, что вынут черный или белый шар, будут равны соот­

ветственно рх = 0,99 и р2 =

0,01. Количество переданной информации

при этом

 

I = — (Pi logs Pa +

р2log2 р2) = — (0,99 log2 0,99 +

+ 0,01 log2 0,01) = 0,0143 -f- 0,0664 = 0,0807 бит/символ.

Следовательно заранее предсказать, какой будет вынут шар, не пред­ ставляет особого труда, так как мы почти уверены в результате опы­

20

та. Количество полученной информации мало. Если мы заранее уве­ рены в ответе, то ответ несет нулевую информацию.

Если в примере с шарами в урне было бы 50 черных и 50 белых, то трудно было бы предсказать содержание сообщения. В этом случае неопределенность максимальна, так как вероятности появления чер­ ного и белого шаров равны друг другу: рг = рг = 0,5.

Количество полученной информации при этом

/ = — (Pi log2 Pi + р2 1оЙ2 Рг> = — (°-5 log2 0-5 + 0,5 log2 0,5) =

= 1 бит/символ.

Чем больше априорная неопределенность, тем большее количество информации получается при снятии ее. В этом смысле величина, определяющая степень неопределенности, является удобной мерой оцен­ ки количества информации при исследовании ее свойств.

В теории информации мерой неопределенности является энтро­ пия — удельное количество информации, приходящееся на один эле­ мент сообщения. Для сообщения из п элементов эта величина равна

 

т

т

 

 

н = ~

= —X Pi los Pi = S

Pi 1о§ 7 Г

0 !0)

и называется средней

энтропией

сообщения.

Величина log i

назы­

вается частной энтропией, характеризующей лишь г-е состояние. Как видим из выражения (10), сама энтропия Н есть среднее значение частных энтропий.

В случае одинаковой вероятности появления любого из т элемен­ тов сообщения

тт

Н = — £

Pi^ogpi = — 2 -^-tog-jr = logm.

(11)

(=i

i=]

 

При исследовании свойств энтропии наибольший интерес пред­ ставляет ее зависимость от числа т возможных признаков (качеств) и вероятности pt появления в сообщении элемента с t-м признаком.

Энтропия характеризует меру неопределенности совокупности

событий, составляющих полную группу (сумма вероятностей появления

т

отдельных событий должна быть равна единице т. е.

1; в про-

 

1= 1

т = i =

тивном случае теряет справедливость формула (10)1. Если

= 1, т. е. передается сообщение с одним t-м признаком и вероятность его появления р{ = 1, то

т

 

Н = £ p < l ° g - ^ = 1 l°g 1 = 0-

(12)

Это очевидно, так как заранее известно, что будет передано сообщение с t-м признаком и при его получении ничего нового мы не узнаем, т. е.

21

получим нулевую информацию. Если

сообщение заранее известно,

то энтропия минимальна и равна 0.

признака в ансамбле сообщений

Если вероятность появления t-ro

равна нулю, то слагаемое с этим признаком принимает вид неопреде­ ленности типа нуль на бесконечность. Действительно,

Pi log •— = 0 • со.

Раскроем эту неопределенность, используя правило Лопиталя1. Для этого прежде всего неопределенность вида 0 • оо приводим к виду

о о /о о :

 

 

Нш (р, log

Pt

 

 

 

 

 

 

 

 

pt-*о '

 

 

 

 

 

 

 

Обозначим — =

к (при р{

 

0 к

 

оо). Тогда можно записать

 

 

lim I -----р 1—

/

= lim

log fe

 

 

 

ррО \

 

L

 

к-*со

k

 

 

 

 

 

 

pi

 

 

 

 

 

 

Согласно правилу Лопиталя

 

 

 

 

 

 

 

- ^ Т ~ =

{~ТГ~) ’ но производная

(log k)' =

log е,

то есть

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Нш log fe

 

± \o g e

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

ft-*со k

 

 

 

 

 

 

Известно, что если отдельные

слагаемые

стремятся к

нулю, то

к нулю стремится и сумма, т.

е.

окончательно можно записать

 

 

 

 

m

 

 

 

 

 

 

 

 

 

lim

£

Pi log - 1 - =

0.

 

, (13)

 

 

 

Pr*°

 

 

 

 

pl

 

 

 

Таким образом, найдены два крайних условия, при которых, эн­

тропия минимальна и равна 0.

 

 

 

 

,

 

Исследуем теперь

выражение

для энтропии на экстремум. Для

1 Правило

Лопиталя: если f (х)

=

—— —, причем функции ф {х) и ¥ (х) опреде-

лены в интервале, содержащем а,

 

 

¥

(д:)

 

 

производные

и имеют в этом интервале конечные

! ¥ ' (х) ф 0;

ф' (х)

Ф 0),

и если

 

 

 

= 0 и J™al

¥

(х) = 0 (неопределенность

0/0) или

ф (х)

~ оо и

¥

(х) =

оо (неопределенность оо/оо), то

/ (*) =

lim ф '( * )

 

 

 

 

 

 

 

 

 

 

 

*=* х-*а ^ \ х )

'

 

 

 

 

 

 

 

 

 

 

22

этого, как известно, необходимо найти точку, в которой производная исследуемой функции меняет свой знак, т. е.

dptd (— Pilogpt) ==— \\o g p c

= — log pi log e = — log pte = 0,

так как производная

произведения (и,

v)' =

u'v

-f и o'. Отсюда pte

= 1, или p{ — . Тогда максимальная величина слагаемого

 

Pi log Pi = Pi log —

=

l loge =

0,531.

Итак, энтропия есть величина веществен-

,

 

ная и имеет экстремум. Так как логариф-

 

 

мы правильных дробей отрицательны', то

 

 

энтропия опыта с конечным числом исходов

 

 

всегда положительна.

 

 

 

 

 

 

График

функции — рс log рс = f

(р{)

 

 

изображен на рис. 9. Этот график пред­

 

 

ставляет интерес с,той точки

зрения,

что

 

 

позволяет

оценить

влияние

вероятности

 

 

появления отдельного символа на величину

 

 

выражения

энтропии для сообщения в це­

 

 

лом. Как видно из графика,

при р{ <

0,1

 

 

величина —p^log р{ растет круто.

Это

оз­

Рис.

9. График функции

начает, что на данном участке даже незна­

Pi log Pi: = f (Pi)-

чительное уменьшение вероятности pt ведет

 

 

к резкому уменьшению слагаемого p,log ри т. е. при малых значениях вероятности pt члены в выражении энтропии, содержащие pt, не игра­ ют существенной роли и часто могут быть опущены.

Из рис. 9 также видно, что наибольшие значения слагаемых ви­ да —Pflog pi принимаются при вероятностях появления импульса с i-м признаком, лежащих в области от 0,2 до 0,6. Это понятно, так как при малых вероятностях появления i-ro признака легко предсказать его отсутствие в сообщении и, наоборот, при больших вероятностях по­ явления i-ro признака легко предсказать его присутствие в сообщении. В обоих случаях величина неопределенности, существующей до по­ лучения сообщения, будет мала. Соответственно мало и количество ин­ формации при снятии этой неопределенности, что и иллюстрируется рис. 9.

Если число символов в сообщении равно двум, то

 

Н = — Ц Pi logt pi = — (Рх logар* + p2logt pJ.

(14)

i==l

 

23

т

1, то рг +

р2 = 1. Обозначим для удобства рх

р2

=

Так как^Р,- =

1=1

1 — Pi =

1 — р.

Подставим

значения рх

и р2

в

= р, тогда р2 =

формулу (14):

Н = — [plog2p +

(l — p)log2(l — р)].

(15)

 

График функции (15)

представлен на рис.

10. Как видим,

энтро­

пия бинарного сообщения изменяется от 0 до 1 и достигает максимума

при

равных

вероятностях появления

в

сообщении обоих

признаков,

т. е. при Pi

= р2 = 0.5.

 

 

 

 

 

 

 

признаков

m >

Для сообщений, в которых количество качественных

2, максимальная энтропия также будет

при соблюдении условия

 

 

 

равной вероятности

появления

признаков

 

 

 

в сообщении,

что

хорошо согласуется с

 

 

 

интуитивными

представлениями

неопреде­

 

 

 

ленности.

В

литературе существуют не­

 

 

 

сколько доказательств

этого важного поло­

 

 

 

жения [8, 12, 13, 41]. Воспользуемся на­

 

 

 

иболее простым из них, изложенным в

 

 

 

работе [13].

 

 

 

что энтропия

 

 

 

 

 

Итак,

докажем,

Н =

 

 

 

=

т

 

Pi

максимальна

при

Pi =

 

 

 

— 2 Р

 

 

 

 

 

i~1

 

 

 

 

 

 

 

Рис. 10. График функции

=

р2 = ... =

р„,

=

р = —. Для

этого не­

обходимо

найти

экстремальное

значение

F —

f (р).

 

 

функции Я.

 

 

 

 

 

 

Составим функционал вида

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

т

 

т

 

т

 

 

 

 

 

 

F = —2 Pi log Pi К l1Pi = —2 (Pi log Pi + Vi)

 

 

 

i—i

 

i—1

 

i=l

 

 

 

 

и найдем его максимум. Обозначим предварительно каждое слагаемое под суммой через F*r

т

т

г = — 2 (P i log Pi +

к р с) = — 2 f * .

i=1

i=l

Максимум будет в точке перегиба, т. е'. в точке, где производная меняет знак:

dF*{

!

 

= — 1 log Pi — — р-, log e — Ik — Pl ■0 = log Pi — loge — X = 0

или

logPi = — loge — X (i = 1, 2, 3, . . . , m).

 

Как видим, ни величина pit ни величина log рг не зависит от номе­ ра i-го признака, что может быть только при условии равенства ве­ роятностей появления любого из признаков в сообщении, т. е. рх =

= Рг = ••• = рт Р =

что и требовалось доказать.

24

Подставив значение Pi — — в выражение (10), найдем

Я = Я тах = — Y i ~ k los~ k == logm-

(16)

i—I

 

Для любого количества символов среднее количество информации на один символ достигает максимума в том случае, когда все символы используются с равными вероятностями.

В заключение рассмотрим еще одно свойство энтропии: энтропия сообщения, состоящего из некоторых частных сообщений, равна сумме энтропий составляющих его сообщений.

Предположим, имеются сообщения А к В с энтропиями соответ­ ственно Я (Л) и Я (В). Необходимо доказать, что энтропия сообщения, состоящего из сообщений А и В,

Н(АВ) = Н(А) + Н(В).

Так как для независимых событий вероятность совместного со­ бытия АВ равна произведению вероятностей событий А к В, то, обо­ значив через р^ pj и р,л вероятности событий соответственно А, В и АВ и используя формулу для энтропии случайного события (10), выражение для энтропии сообщения АВ запишем следующим образом:

Я (ЛВ) =

2 ри log ри = — 2 PiPi log PiPi =

 

 

 

*./

 

i j

 

 

 

= — 2 PiPi (log Pi + log Pj) = — 2

Pi log рс 2 p,- — 2

Pi log Pi 2

Pi-

i,j

 

 

i

i

}

i

 

Так как .2 Pi = 1

и 2 /? ; = 1, то окончательно можно записать

 

Я(ЛВ) =

-

2 Pi log Pi -

2 р/ logp/ =

Я (Л) +

Я(В),

(17)

 

 

i

i

 

 

 

 

что и требовалось доказать.

Это свойство энтропии, или правило сложения энтропий, хорошо

согласуется со смыслом энтропии как меры неопределенности. Дей­ ствительно, неопределенность сообщения АВ должна быть больше

неопределенности отдельных сообщений Л и В. Правило сложения эн­ тропий распространяется и на п событий при п > 2. Доказательство

этого положения аналогично приведенному выше.

Выводы. 1. Если известно, что данное событие наверняка произой­ дет или не произойдет, то его энтропия минимальна и равна нулю.

2.Если событие с равной вероятностью может произойти либо не произойти, то его энтропия максимальна.

3.Энтропия величина вещественная и положительная. Для

любого количества символов энтропия достигает максимума при рав­ ной вероятности появления их в сообщении.

25

Задачи к теме 4

1. Чему равна энтропия сообщений: «Сейчас Луна упадет на Землю», «Сейчас Луна не упадет на Землю»?

2.На вычислительном центре постоянная информация хранится в 32 768 стан­ дартных ячейках. Сколькими способами можно передать сведение о том, из какой ячейки необходимо извлечь информацию? Чему равно количество информации в каждом отдельном случае? Какое геометрическое расположение ячеек в хранилище позволит передавать эту информацию минимальным количеством качественных при­ знаков?

3.В плановом отделе работают три экономиста: два — опытные и один — не­

опытный. Опытные специалисты знают, что сводки типа А составляют 10% от обще-' го количества документов, поступающих в отдел. Определить, какое количество ин­ формации получит каждый специалист при получении сводок типа А?

Таблица 2

Таблица для вычисления энтропии украинского алфавита (без учета пропуска меж­ ду словами)

Буква

А

Б

В

Г

Д

Е

Ж

3

И

I

I -

Й

к

л

м

Средняя вероят­

 

ность появления

Pi log Р,-

в тексте Р[

 

0 ,0 8 5 5 5

0 ,3 0 3 3 4 8

0 ,0 1 8 3 '

0,105195

0 ,0 5 4 0

0,227388

0 ,0 1 5 0

0,090983

0,0 2 9 8

0 ,151043 .

0 ,0 4 7 3

0,208511

0 ,0 0 3 6

0,029224

0 ,0 0 8 0

0 ,055726

0,0 2 0 3

0,113716

0,0 6 8 4

0,264941

0,0634

0,252546

0,0 0 6 7

0,048385

0,0202

0,113716 ,

0,0368

0,175321

0)0388

0,1 7 9 9 3 3

0 ,0 2 6 8

0,139939

Буква

Н

О

п

р

с

т

У

ф

X

ц

ч

ш

щ

ю

я

ь

-

Средняя вероят­

Pt log Pi

ность появления

в тексте р^

 

0 ,0 6 1 3

0,247431

0 ,1 0 3 7

0 ,3 3 8 6 8 3

0 ,0 2 9 6

■0,150316

0,0 4 6 8

0,206732

0,0 3 9 4

0 ,183827

0 ,0 5 0 9

0,218961

0,03689

0,175321

' 0,0023

0,020158

0,0 0 9 7

0 ,064872

0,0074

0 ,052379

0,0 1 3 6

0,084323

0,0 1 1 0

0 ,071570

0,0091

'0 ,0 6 1 6 9 7

0,0 0 7 2

0,051248

0,0172

0,100817

0,0146

0 ,089029

4. Определить, в каком из приведенных ниже текстов количество Информации больше и почему:

а) «Рара, ра, ра, ра, ра, ра»; б) «Соблюдайте правила техники безопасности. Не стой под краном! Не сорить!»

в) «Здравствуйте.— Да, Петров.— Идете в цех?— А накладные?— Хорошо, у диспетчерской»;

г) «Румяной ... Восток ... Огонек ... Спешат к пастухам...»

5. Для прибора Zдетали из кладовой отдела комплектации доставляет конвейер­ ная лента 1, для прибора Y — лента 2. В комплектующие изделия прибора 1 входят 10 конденсаторов, пять резисторов и пять триодов, а прибора Y — восемь конден­ саторов, восемь резисторов и четыре триода. В каком случае неопределенность того,

какая деталь на ленте будет первой, больше? Определить

энтропию в битах и дитах.

6. Сообщение А передано двоичным пятизначным, а

сообщение В — цифровым

(набор из любых арабских цифр) трехзначными кодами. Чему равна энтропия сооб­ щения, состоящего из сообщений А и В?

26

7. Определить количество информации в произвольном украинском тексте, если известна энтропия украинского алфавита (табл. 2):

32

Я = - 2 Pi log Pl = 4,577179. i=i

8. В сообщении, составленном из пяти качественных, признаков, последние используются с разной частотой, т. е. вероятности их различны и равны соответствен^

но pi = 0,8, р2 = 0,15, рз = 0,03, р4 = 0,015 и рь = 0,005. Всего в сообщении при­ нято 20 знаков. Определить количества информации на букву сообщения и во всем сообщении. Каково было бы количество информации в данном сообщении, если бы все признаки имели равную вероятность?

Т е м а 5

I УСЛОВНАЯ ЭНТРОПИЯ

До сих пор, оперируя понятием энтропия, мы имели в виду некоторое удельное количество информации, приходящееся на один элемент со­ общения. Такая энтропия была названа средней, а при ее вычислении использовали выражение

тт

н = — j p / iogp< =

S f t 1°g 4 r '-'

(18)

г=1

г=1

 

При этом подразумевалось, что

символы сообщения взаимонеза-

висимы, т. е. с приходом одного символа распределение вероятностей последующих символов не изменяется. Так может быть, например, при передаче букв бесконечного алфавита, вынимаемых из кассы, либо при передаче букв конечного алфавита, но с обязательным услови­ ем, что после передачи каждой буквы она опять будет возвращена в кассу.

На практике же чаще всего встречаются взаимозависимые символы и сообщения. Если передавать не просто отдельные буквы алфавита, а смысловые сообщения, то можно убедиться, что существует взаимо­ зависимость передаваемых символов. Одни буквы встречаются чаще, другие реже, одни буквы и слова часто следуют за другими, другие ред­ ко и т. д. Например, в английском языке наиболее часто встречается бук­ ва е; во французском языке после буквы q почти наверняка следует буква и, если q, естественно, не стоит в конце слова; в советских га­ зетных сообщениях после слова «передовик» чаще всего следует слово «труда» или «производства»; появление в сообщении слов «передовик труда» дает, в свою очередь, информацию о характере сообщения, например, что это сообщение ближе к заводской, чем к театральной жизни и т. д.

В случае взаимозависимых символов удобно использовать среднее количество информации, приходящееся на один символ, с учетом вза­ имозависимости через условные вероятности. '

27

Предположим, получено сообщение АВ, в котором появление А зависит от В и наоборот. Обозначим через р(а£) вероятность появления г-го состояния события А, р (bf) — вероятность появления /-го со­ стояния события В, р (а{1Ь]) — условную вероятность t-го состояния со­ бытия А относительно /-го состояния события В, р (bj/ad — услов­ ную вероятность /-го состояния события В относительно i-ro состояния события А (например, появления /-го символа сообщения В после по­ явления i-гоюимвола сообщения А).

Согласно принципу умножения вероятностей, вероятность со­ вместного появления двух взаимозависимых событий равна произведе­ нию вероятности появления одного из событий на условную вероят­ ность другого события относительно первого:

 

p (ait bj) = р (а,) р (bj/a/) = р (bj) р (at/bj).

(19)

Тогда энтропия взаимозависимых событий А и В

 

 

Н (А, В) = — 2

Р (at, bj) log р (ait bj) =

 

 

ui

 

 

 

= — 2 P (at) P (b//ai) log p (at) p (bj/a,) =

 

 

ui

 

 

 

 

= 2 P ifli) P (bj/ad [1 Ogp (a/) +

log p (bj/a,)] =

 

 

i.i

 

 

 

= — 2 P (ad bg p (at) 2 p (bj/ad 2 P (ad 2 P (bj/ad log P (bj/ad.

(20)

*

/

t

/

 

В выражении (20) сумма — 2

p (a;) log p (ad — не что иное, как эн­

тропия

объекта Л, сумма — 2

р (Ь/1ас ) log р (bj/ad — условная

эн­

тропия объекта В при условии, что реализовалосьi-e состояние объек­

та А.

Если учесть, ч т о 2 р (bj/ad = 1 и 2

р (ad =

1, то выражение

(20)

может быть записано в виде

 

 

 

Н (А, В) = — 2

Р (ad log p ( a d — h p

(bj/ad bg P (bj/ad =

 

*

/

 

(21)

 

 

= H (A) + H (B/A).

Таким образом, в самом общем случае можно сказать, что энтропия

двух статистически связанных событий равна сумме

безусловной Н (Л)

и условной Н (В/А) энтропий. Это хорошо согласуется с общим поня­ тием условной энтропии в том смысле, что она представляет собой не­ которую добавочную энтропию, которую дает сообщение В, когда эн­ тропия сообщения Л уже известна.

Поменяв местами Л и В в выражении (21), нетрудно убедиться в том, что

Н (В ,А ) = Н(В) + Н(А/В).

28

При отсутствии статистической зависимости между сообщениями

А я В

Н(В, А) = Н(В) + Н(А).

При полной статистической зависимости, когда появление одного со­ бытия однозначно определяет информацию о другом событии, энтропия сообщений А я В

Н(А, В) = Н(А) = Н(В).

Если элементы источника сообщений принимают состояния аг,

а2, ..., щ , ..., ап с вероятностями соответственно р (%), р(а2).....р (а£), р(ап),

аэлементы адресата — состояния

Ьг, Ь2, ..., bj, ...,

bn с вероятностя­

 

ми соответственно р(Ь^),

р(Ь2), ...

 

..., р (bj),

...,

р (Ьп), то понятие

 

условной энтропии Н (ajbj) выра­

 

жает

неопределенность

того,

что,

 

отправив ait мы получим bj, а по­

 

нятие

Н (bjla{)

неуверенность,

 

которая остается после

получения

Ь:,

bj, в том, что

было отправлено

именно а£. Графически это может

 

быть представлено следующим об­

 

разом (рис. 11).

Посылаем сигналы

Рис. 11. Иллюстрация неопределеннос­

а£. Если в канале связи присут­

ти принятия сигнала bj при передаче а£.

ствуют помехи, то с различной

 

степенью

вероятности

может

быть

принят любой из сигналов

а{, и, наоборот, принятый сигнал 6/ может появиться в результате отправления любого из сигналов щ (к этому вопросу мы еще вернемся в дальнейшем, при рассмотрении условий передачи сообщений в каналах связи под действием помех).

Формула условной энтропии отличается от классического выраже­

ния (18) тем, что значения вероятностей — другие:

 

ЩЬ,/а,) = — 2 р (bjlot) log р (bj/cti).

(22)

/

 

Ввиду того что для характеристики любого произвольного состояния адресата В выбран индекс /, при вычислении Н (bjla{) суммирование следует производить по /, в связи с тем, что именно энтропия bj нас интересует после отправления а£.

Так как для характеристики любого произвольного состояния ис­ точника А выбран индекс i, то при вычислении Н (a^bj) суммирование следует производить по t, поскольку именно оставшаяся энтропия множества отправленных символов нас интересует после получения символа bj:

H(at/bj) = — 'Iip(ailbj)\ogp(aiIbj).

(23)

29

Соседние файлы в папке книги из ГПНТБ