Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Бездудный, В. Г. Техника безопасности в шахтном строительстве

.pdf
Скачиваний:
5
Добавлен:
22.10.2023
Размер:
10.55 Mб
Скачать

Аддитивной называется помеха, которая суммируется с сигналом. Аддитивная помеха существует независимо от сигнала и может наблю­ даться как при наличии сигнала, так и при его отсутствии. Действие аддитивной помехи характеризуется величиной

-Ua(f) = Uc(t) + Ui (О,

где Uc и U\ — напряжения соответственно сигнала и помехи. Наиболее универсальная причина аддитивной помехи — флуктуа­

ции, т. е. колебания случайных величин около их среднего значения. Примером флуктуации может быть броуновское движение молекул, дробовой эффект в электронных лампах и др. Флуктуационная помеха принципиально неустранима. Бороться с ней можно, применяя хоро­ шие схемы и режимы, но полностью ее устранить нельзя.

Мультипликативная помеха проявляется только при передаче сигналов, и действие ее заключается в многократном их усилении или ослаблении. Природа мультипликативной помехи состоит в случайном изменении параметров канала связи. Например, суточное и сезонное распространение коротких волн, фединг и пр. Действие мультиплика­ тивной помехи может характеризоваться величиной

где у — некоторый коэффициент, учитывающий изменение параметров канала связи.

Насколько флуктуации типичны для аддитивной помехи, настолько фединг — для мультипликативной. При фединге волна, посланная передатчиком, достигает антенны приемника, следуя одновременно по нескольким путям. В результате разно­ сти их длин возникают разности фаз, и волны интерферируют. А так как сами пути представляют собой случайные образования, все время изменяющиеся в зависимости от состояния атмосферы, то и интенсивность сигнала меняется вплоть до исчезновения последнего. Бороться с федингом можно, увеличивая число каналов. Тогда сигналы можно складывать либо автоматически подключать тот сигнал, который в данный мо­ мент больше. Еще одним средством борьбы с федингом является разнос антенн. Про­ цессы в двух фиксированных точках протекают тем более сходно, чем ближе эти точки друг к другу. Раздвигая их, можно найти такое наименьшее расстояние, на котором изменения напряженности поля практически не коррелированны. Можно также разносить по частоте несущие. Так как замирание, обусловленное интерферен­ цией, зависит от фазовых соотношений, то на другой частоте при тех же разностях ходов фазовые соотношения будут другими. ,

Пёречисленные помехи называются внешними. Внутренние поме­ хи создаются приемно-передающей аппаратурой и устраняются как конструктивными, так и схемными решениями. Например, экраниру­ ют реле', фильтры, ставят развязки цепей и т. д.

Система передачи информации А обычно считается более помехо­ устойчивой, чем система передачи информации В, если при одинаковом уровне помех и одинаковой мощности передаваемых сигналов принятые сигналы системой А будут больше похожи на переданные, чем сигналы, принятые системой В.

90

При анализе информационных систем различают помехоустойчи­ вость системы к ложным срабатываниям от помех в линии связи в тот момент, когда информация не передается (статическая помехоустойчи­ вость) и способность системы выделять полезные сигналы из шумов- (динамическая помехоустойчивость). Статическую помехоустойчи­ вость оценивают средним числом ложных сигналов, образуемых из помех за единицу времени, а динамическую — средним числом ложных команд, образуемых из переданных за единицу времени (включая непринятые сигналы).

Статическую помехоустойчивость повышают путем увеличения количества импульсов на сообщение, усложнения кодов и увеличения числа качественных признаков. Кроме того, иногда вводят специальную стартовую кодовую комбинацию, которая открывает вход приемного устройства на определенное время, необходимое для принятия сообще­ ния. Стартовая комбинация обычно намного сложнее информационных кодов. Динамическая помехоустойчивость увеличивается по мере удлинения элементарной посылки кода, упрощения кода и уменьшения количества импульсов на сообщение.

Действие помех в дискретных системах можно свести к тому, что из общего множества сигналов определенное их количество заменяется другими. В результате этого при передаче аг го сигнала вместо ^-го- пол учается Ь/ сигнал. Помехоустойчивость дискретной системы с учетом ценности каждого отдельного сообщения может быть охаракте­ ризована набором условных вероятностей, записанных в виде каналь­ ной м а т р и ц ып р и помощи матрицы вероятностей совместных событий и др. Однако какой бы способ мы ни выбрали, условная вероят­ ность перехода одних сигналов в другие будет присутствовать в том­ или ином виде.

Собирательным параметром, характеризующим помехоустойчи­ вость системы, может служить некоторая средняя неопределенность- принятого сообщения относительно переданного

Н =

(1

Рош.ср) log (1

/ ? О Ш .С р ) Рощ.ср log Рош.С р ,

где Рош.ср — средняя

вероятность

ошибочного приема.

Так как

повышение статической помехоустойчивости обычно

связано с увеличением количества символов в сообщении и усложнёнии кодов, то в общем случае можно сказать, что статическая помехоустой­ чивость повышается за счет увеличения избыточности. Чем больше избыточность кода, тем, с одной стороны, легче отличить его от помехи,, но, с другой стороны, тем дальше код стоит от оптимального, тем мень­ ше скорость передачи информации.

Эффективность информационной системы введена для оценки степени целесообразности усложнения кодов при получении заданной помехоустойчивости. При одинаковой полосе частот и мощности насообщение более эффективной считается та система, которая передает1

1 Канальная матрица рассматривается в теме 11.

91

.данное сообщение за более короткий промежуток времени. Из двух запоминающих устройств с одинаковым числом ячеек более эффектив­ ным является то, которое может хранить большее количество инфор­ мации, и т. д. [28].

Эффективность увеличивают преимущественно за счет уменьшения избыточности сообщения. Целесообразным пределом уменьшения избы­ точности является тот момент, когда скорость передачи /? становится равной пропускной способности С. Дальнейшее уменьшение избыточ­ ности (если оно вообще возможно) приведет исключительно к потере помехоустойчивости и не даст никакого выигрыша в скорости передачи

•сообщений. В

некоторых случаях удается повысить эффективность,

не уменьшая

избыточности сообщений, например, когда символы в

•сообщении неравновероятны и имеют равные мощности. Эффектив­ ность при этом повышают за счет уменьшения средней мощности пере­ дачи сообщений, распределяя вероятности отдельных символов таким образом, чтобы наименьшую мощность имели символы с большей, а наибольшую — с минимальной вероятностью появления в сообщении. Совершенно, очевидно, что повышение эффективности таким образом не может увеличить помехоустойчивость системы, так как последняя увеличилась бы именно в обратном случае, т. е. при передаче символов с большей вероятностью сигналами большей мощности.

Для количественной оценки эффективности используют различные

•параметры. Наиболее распространенным из них является коэффициент

■использования канала связи

который показывает, насколько близка скорость передачи информации к пропускной способности канала связи, и коэффициент передачи информации

_

JL

г

Н ’

тде Н — скорость создания информации источником (р имеет смысл лишь при Н < С [28]).

Надежность связана с помехоустойчивостью и эффективностью. Действительно, увеличение эффективности ведет к уменьшению по­ мехоустойчивости. Нетрудно убедиться в том, что повышение помехо­ устойчивости и эффективности, которые зачастую приходится увели­ чивать за счет усложнения приемно-передающей аппаратуры, обычно ведет к уменьшению надежности. Современные информационные систе­ мы, такие как системы космической связи, радиолокационные станции и даже простые районные АТС, состоят из сотен тысяч деталей и узлов. Известно, что с увеличением количества деталей надежность устрой­ ства стремится к нулю — какими бы надежными детали ни были.

В общем случае под надежностью информационной системы под­ разумевают ее способность к безотказной работе в течение определен­ ного отрезка времени.

92

При анализе надежности следует особо оговаривать надежность передачи сообщений и надежность связи в целом. Надежность пере­ дачи — вероятность правильной передачи при условиях правильной работы аппаратуры, т. е. предполагается, что ошибки при передаче сообщений обусловливаются исключительно шумами. Надежность связи — вероятность правильного приема сообщений с учетом влияния помех, вызванных случайными связями и общей ненадежностью ап­ паратуры во время передачи сообщений [8]. Надежность связи харак­

теризует

систему связи, тогда как

надежность передачи — лишь

способ кодирования. Надежность передачи

вычисляется

в среднем

на одно

сообщение,

а надежность связи — относительно

заданного

отрезка

времени.

информационных

систем

исследователь должен

При

создании

знать надежность отдельных узлов, чтобы можно, было определить надежность аппаратуры в целом. Инженер, составляющий технические условия, должен сформулировать требования к надежности, исходя из техники производства и условий использования аппаратуры. Конструк­ тор должен выбрать решения, обеспечивающие надежность работы аппаратуры.

Практика показывает, что основными факторами, приводящими к уменьшению надежности информационных систем, являются следующие:

1) необоснованность технических требований, выходящих за пределы реальных возможностей;

2) неправильный выбор метода кодирования и канала связи;

3)плохое проектирование, неверное применение элементов;

4)сложность аппаратуры, приводящая к перегрузке схем и об­ служивающего персонала;

5)стремление к сверхуниверсальности;

6)отсутствие комплексного проектирования;

7)приобретение некачественных материалов по пониженным

ценам;

8)слабая обученность обслуживающего персонала.

Выводы: 1. Достоверность передаваемой информации во многом зависит от того, насколько приемно-передающая аппаратура обеспе­ чивает устойчивость ■к аппаратурным, промышленным и атмосфер­ ным помехам.

2.Чем сложнее код, тем выше его статическая и ниже динамиче­ ская помехоустойчивость. И наоборот, чем проще код, тем легче его принять и тем легче он может быть набран из помех.

3.Помехоустойчивость, эффективность и надежность системы передачи информации понятия взаимосвязанные. Увеличение поме­ хоустойчивости и эффективности ведет к уменьшению надежности. Если надежность и помехоустойчивость увеличивать за счет усложне­ ния схемы и повышения мощности либо расширения полосы частот,

ане за счет применения прогрессивных научных открытий, то в ре­ зультате этого эффективность снижается.

93

ВЫ ЧИСЛЕНИЕ КОЛИЧЕСТВА ИНФОРМАЦИИ ПРИ ПЕРЕДАЧЕ СООБЩЕНИЙ ПО ДИСКРЕТНОМУ КАНАЛУ СВЯЗИ С ШУМАМИ

При отсутствии помех скорость передачи информации можно сделать сколь угодно близкой к величине

С = пН,

где С — пропускная способность канала связи; Н — энтропия источ­ ника сообщений.

Для этого достаточно разбить передаваемое сообщение на доста­ точно длинные блоки и закодировать их оптимальным кодом (кодом с нулевой избыточностью).

Однако не существует системы передачи без помех, аппаратурных или в каналах связи. Уровень помех может быть более или менее опасным по сравнению с уровнем передаваешго сигнала, но действие помех всегда следует учитывать.

Для удобства исследования помехи всегда считают сосредоточен­ ными в линии связи, математическое описание которой задается в виде вероятностных характеристик сигнала на передающем и прием­ ном концах. Графически влияние помех может быть проиллюстриро­ вано рис. 22.

Gm'

аг а<

D

b,

Ь2

Ьт

В

 

 

 

 

а'

 

 

 

Рис.

22.

Графическое-предегавление различных уровней помех в ка­

нале связи.

 

 

 

Предположим,

передаются два равновероятных сигнала ах и а2,

т. е. р (ах) =

р (а2)

= 0,5. Если в канале связи нет помех (рис. 22, а),

то на приемном конце мы получим сигналы

Ьх и Ь2,

причем р (Ьх) =

= р (Ь2). Наличие

помех в канале связи

вводит

неоднозначность

и в ряде случаев может привести к тому, что при передаче ах мы при­ мем не Ьх, а Ь2 (вместо сигнала 0 — сигнал I, вместо сигнала отри­ цательной полярности — сигнал положительной полярности и т. д.),

т. е. р (Ьх) Ф р (Ь2).

Например, если Ь2 — сигнал положительной

полярности

и помеха

имеет положительную

полярность (рис. 22,. б),

то р (Ьх) <

р (Ь2). Чем выше уровень помех,

тем меньше будет стати­

94

стическая связь между значениями alt Ьг и а2, Ь2, которые характеризу­ ются условными вероятностями р (b ja х) и р (Ь2/а2), и больше будут веро­

ятности ложных

переходов р (62/fli) и

р (bja2). Предельный слу­

чай— отсутствие

полной статистической

зависимости (рис. 22, в).

В общем случае, если мы передаем т сигналов А и ожидаем по­ лучить т сигналов В, влияние помех в канале связи полностью опи­ сывается так называемой канальной матрицей

А

в

ь, . . . ьг

. . .

ь,-

 

bn

«1

 

P(*l /«l) Р (*2 /«l)

. •

■p{biJal)

. p (bm/at)

 

 

Р{Ь\ /а2) р (&2 /а3) . .

,p(bj/a2) . .

. p (bm /a.2)

т

 

Р(ь1/4) Р(ьг/Щ)

• •

Р (bi lai)

. p^m/ap)

йт

 

р (f>! jam) р (b2jam) . .

■P(bi M .

. p {bmJClm'}

Вероятности, которые расположены по диагонали (выделенные полужирным шрифтом), определяют правильный прием, остальные — ложный. Числа, заполняющие столбцы канальной матрицы, обычно уменьшаются по мере удаления от главной диагонали и при полном отсутствии помех все они, кроме чисел, расположенных на главной диагонали, равны нулю.

Условные вероятности появления букв Ьи Ь2, ..., Ь,-, ..., Ът в зависимости от переданных букв аи а2,..., аи ..., ат характеризуют степень неопределенности, неуверенности в том, что принятый сигнал соответствует переданному, а условная энтропия Н {А!В) определяет количество недостающей информации на приемном конце в результате действия помех. Величина Н (BIA) выражает не только соответствие принятой буквы bj переданной букве а£, но и какой-то другой пере­ данной букве ансамбля сообщений, составленного из первичного алфа­ вита. Например, принят сигнал Ьх. Если бы не было помех, то с уве­ ренностью можно было бы сказать, что был послан соответствующий ему символ сц. Но наличие помех лишает нас полной уверенности в этом. Мы все еще предполагаем, что был послан сигнал alt но уже допускаем возможность, что мог быть послан и другой сигнал. Получен­ ная информация меньше той, которую мы получили бы при отсутствии помех, меньше на величину этой неуверенности, неопределенности, неоднозначности, неэквивалентности. Вот эта потеря информации и ха­ рактеризуется распределением условных вероятностей вида р (а(/Ь/).

95

Итак, принятый сигнал bt в условиях наличия помех в канале

связи с различной .степенью вероятности может означать, что

был по­

слан не только сигнал аъ но и любой другой из аь а2...... а{, ...,

ат воз­

можных сигналов. Вероятность того, что событие Ьг было

вызвано

одним из событий al t a2, а{, ..., ат, выражается при помощи распре­ деления условных вероятностей, отражающих степень взаимозависи­

мости события ,^

с событиями аг,

а2,...,

ат:

P(ai/bj), Piat/bj), . . . .

Piai/bJ,

р ( a j b j .

Чем меньше

уровень помех,

тем больше

зависимость между аг

и Ьх и меньше зависимость между Ь1 и остальными символами первич­ ного алфавита, и наоборот. Энтропия этого условного распределения

т

н (Otlbj = — 2 Р(ailbi) log р (Gi/&i). г=1

Если будет принят символ Ь/, то количество потерянной информа­ ции, неопределенность принятого сигнала теперь будет выражаться энтропией распределения условных вероятностей /-го столбца каналь­ ной матрицы

т

Н (ajbf) = — 2 Р (ajbi) log р (щ/bj). i=1

При этом следует учесть, что каждая строка канальной матрицы долж­ на удовлетворять условию

p(.ailbi) + Р (#1/^2) + • * ' -b-.p(aifbj) + • • • + Р (ai/bm) = 1»

т. е. при передаче сигнала аг обязательно должен быть принят какой-

нибудь из сигналов bj. И наоборот, если был принят сигнал Ь;, то,

оче­

видно, был передан один из сигналов ар

 

Р {ьг/а1) + Р (bila2) + • • • + Р (bjlat) + • • • + Р (bilam) — !•

(56)

Для определения среднего количества потерянной информации необходимо взять среднее значение условной энтропии Я (А / В ), кото­ рая равна

Н ( Л /В) = -

2

2 р (*/) р

lo g Р ifhlbj).

(5 7 )

'

i

i

 

 

В общем случае, когда был передан ансамбль сообщений с энтро­ пией Я (А) и получен ансамбль сообщений с энтропией Я (В), при нали­ чии помех количество принятой информации

/(В, А) = Я (Л) — Н(А/В).

(58)

Другими словами, количество информации, содержащееся в ан­ самбле принятых сообщений В относительно ансамбля переданных сообщений Л, равно энтропии передаваемых сообщений Я (Л) минус потеря информации Я (A/В), вызванная действием помех. Величину Я (А/В) определяют по формуле (57), а распределение частных услов­ ных вероятностей задается канальной матрицей.

96

Исследуем выражение (58). Если помехи отсутствуют или их уровень настолько низок, что они не в состоянии уничтожить сигнал или имитировать полезный сигнал в отсутствие передачи, то при передаче ах мы будем твердо уверены, что получим Ъх. События А и В статистически жестко связаны, условная вероятность максимальна (bjlcij) = 1], а условная энтропия

т

Н {А!В) = — 2 р (bj/aj) log р (bj/aj) = О, i=1

так как log р (bj/aj) = log 1 = 0. В этом случае количество информации, содержащееся в принятом ансамбле сообщений В, равно энтропии передаваемых сообщений ансамбля А.

При очень высоком уровне помех любой из принятых сигналов bj может соответствовать любому переданному сигналу, статистиче­ ская связь между переданными и принятыми сигналами отсутствует. В этом случае вероятности р (а-) и р (bj) есть вероятности независимых событий. Известно, что вероятность совместного появления независи­ мых событий равна произведению вероятностей этих событий. Следо­

вательно,

(59)

р (alt bj) = р (а,) р (bj) = р (bj) р (щ) = р (bj, щ).

С другой стороны, согласно принципу умножения вероятностей, вероятность совместного появления двух событий может быть представ­ лена через условную вероятность появления одного из них, умножен­ ную на условную вероятность другого относительного первого, т. е.

p(ah bj) = р (а,) р (bj/at) = р (bj) р (щ/bj).

(60)

Сопоставляя выражения (59) и (60), находим, что при отсутствии статистической связи между at и bj

 

p(bj/ai) = p(bj);

p(ai/bi) = p(at).

 

Это вполне объяснимо, так как корреляция отсутствует

и принятое

bj не означает, что было передано ас.

в формулу (57), находим

Подставляя

значения р (at/bj)

Н (А/В) =

— 2 Р (bj) Р (щ) log р (at) = 2 Р (bj) Н (А) =

Н (А),

 

/V

/

 

так как 2 Р (bj) — 1. Следовательно, энтропия равна безусловной,

/

а количество информации, содержащееся в В, относительно А равно нулю:

/ (А, В) = Н (Л) — Н (AJB) = 0.

Информационные характеристики реальных каналов связи лежат между двумя предельными случаями — когда помехи полностью отсутствуют и когда уровень помех настолько высок, что любому из принятых сигналов может соответствовать любой переданный. Дру­ гими словами, несмотря на то, что часто информация поражается

4 3-1273

97

помехами, между принятыми и переданными сообщениями существует статистическая взаимосвязь. Это позволяет описывать информацион­ ные характеристики реальных каналов связи при помощи энтропии объединения статистически зависимых событий.

При наличии шумов в канале связи появление сигнала b/ не означает, что был передан сигнал ас, но предполагает появление хотя бы одного из сигналов аъ а2,..., а£,..., ат. Поэтому очевидно, что веро­ ятность совместного появления двух событий связана с условной вероятностью соотношениями, аналогичными выражению (60), т. е.

р {А, В) = р (Л) р (В/А) = р (В) р (А/В).

Используем эти соотношения при выводе выражения для энтропии объединения.

Энтропией объединения называется энтропия совместного появле­ ния статистически зависимых сообщений. Понятие энтропии объедине­ ния хорошо усваивается, если представить себе, что существует воз­ можность видеть и источник сообщений (скажем, некоторый телетайп на входе канала связи), и адресат (телетайп на выходе канала связи).

Предположим, первый телетайп передает цифры 0, 1, 2,..., 9, а второй их принимает. Если бы в канале связи отсутствовали помехи, то всегда переданной цифре соответствовала бы та же цифра на ленте приемного телетайпа. Однако наличие помех лишает нас уверенности, что принятая цифра будет соответствовать переданной. Поэтому с разной степенью вероятности допускают возможность принятия и других цифр, не соответствующих переданной. Наблюдая за переда­ чей данных по такому каналу связи, можно заметить, как помехи преобразуют одни цифры в другие, и путем подсчета установить какуюто закономерность перехода одних цифр в другие либо полное отсут­ ствие закономерности. Например, передав цифру 5 сто раз, мы заметили, что цифра 5 принялась 85 раз, цифра 6 — 10 раз, цифра 4 — три раза и по одному разу цифры 3 и 7. Так вот, энтропия объединения описыва­ ет неопределенность возникновения комбинаций 5—3, 5—4, 5—5, 5—6 и 5—7 при передаче цифры 5, либо неопределенность появления комбинаций 4—7, 5—7, 6—7, 7—7 и 8—7 при приеме цифры 7.

Таким образом, при передаче символов щ первичного и приеме символов bj вторичного алфавитов энтропия объединения статистиче­ ски зависимых сообщений показывает неопределенность появления комбинаций а£ и bj, устанавливает степень их взаимосвязи, т. е.

Я (А,В) — неопределенность того, что будет послано А,

а принято В.

Для ансамблей А и В энтропия объединения

 

Н(А, fi) =

- 2 S

P ( fl£* bj) logp(ai t bj).

(61)

 

i

i

 

Теперь, используя (60), можно записать

 

я (А, в) = — 2

2 р (“*)р № № °s [р («<) р

 

i

/

 

 

93

Так как

log [р (щ) р (bj!а£)] =

log p (at) + log p (bj/at),

 

 

 

TO

 

 

 

 

 

 

Я (Л ,В ) = - ( 2

2

р (ад P (bi/ad l°g P (at) +

 

 

1

i

 

 

(62)

 

+ ^ p ( a

i)p(bilai)\ogp(bi!ai)].

 

* /

 

 

 

 

Рассмотрим подробнее слагаемые выражения (62):

 

2 2 р (ai) р (bi/Q) 1о§ Р (fli) = s Рfe)loSP(0;)2 P

^

i

/

 

i

i

 

 

= 2 p to) lo§ p (a<) =

H (A)>

 

так как

i

 

 

 

 

 

 

 

 

 

 

2

p ( fo/ / a <) =

! ;

 

 

/

 

 

 

 

2 2

P (ad p (bi/ai) loS p (bi'ad = - ~ H (#M) [см. формулу (24)].

i/

Врезультате энтропия объединения

Я(Л, В) = Я(Л) + Я(В/Л).

(63)

Таким образом, энтропия объединения равна сумме безусловной Я (Л) и условной Я (В/Л) энтропий. Энтропия Я (В/Л) представляет

вданном случае ту добавочную информацию, которая дает сообщение

Впосле того, как нам стала известна информация, содержащаяся в сообщении Л .

Свойства энтропии объединения:

1)на основании выражения (59) можно записать, что

Я (Л, В) = Я (В, Л);

(64)

2) вместе с тем

Я(Л, В) = Я(Л) + Я(В/Л),

т. е. неопределенность того, что будет передано Л и принятоВ, равна неопределенности того, что будет передано Л плюс неопределенность того, что будет принято В, если передано Л. Это было доказано при выводе формулы (63).

Очевидно и то, что

Н( В ,А ) = Н(В) + Н(А1В);

3)так как Я (Л, В) = Я (В, Л), то

Я (Л) + Я (В/Л) = Я (В) + Я (Л/В),

(65)

или

 

Я(Л) — Я(Л/В) = Я(В) — Я(В/Л);

(66)

4) согласно свойствам условной энтропии, если Л и В статистиче­ ски независимы, то

Я (Л/В) = Я (Л); Я (Л, В) = Я (Л) + Я (В),

4'

99

Соседние файлы в папке книги из ГПНТБ