- •Содержание
- •Глава 1
- •1.1. Основные понятия и определения теории надежности
- •1.2. Модели потоков отказов и сбоев
- •1.3. Функции, характеристики и классификация систем
- •1.4. Алгоритмы контроля асоИиУ
- •Глава 2
- •2.1. Общие сведения о каналах передачи данных
- •2.2. Модели каналов передачи и хранения данных
- •2.3. Коды и кодирование: основные понятия и определения
- •2.4. Принципы помехоустойчивого кодирования
- •2.5. Классификация помехоустойчивых кодов.
- •2.6. Примеры линейных помехоустойчивых кодов
- •2.6.1. Код с контролем нечетности
- •2.6.2. Код Хэмминга
- •2.7. Циклические коды (цк)
- •Глава 3
2.2. Модели каналов передачи и хранения данных
Случайный процесс возникновения ошибок в дискретном канале будет полностью описан, если заданы: входной и выходной алфавиты символов, а также совокупность переходных вероятностей вида p=(a*/a), где a – символ на входе канала и a*– символ на выходе канала, а p=(a*/a) – вероятность приема символа a* при условии, что передан символ a. Вероятности переходов, связывающие входные и выходные символы, могут быть заданы в виде матрицы переходных вероятностей, которая для двоичного канала, имеет вид:
.
(2.1)
Здесь
и
– вероятности безошибочной (достоверной)
передачи символов «0» и «1», а
и
– вероятности искажения (конверсии)
передаваемых символов «0» в «1» и «1» в
«0» соответственно.
Для вероятностей (2.1) справедливы равенства
или
(2.2)
В
правых частях (2.2) указаны только
вероятности искажений (ошибок) при
передаче по каналу различных символов.
Эти равенства можно рассматривать как
вероятностную модель реального двоичного
канала. Если возможные значения символов
входных (
)
и выходных (
)
расположить в узлах графа, соединив
эти узлы дугами, отображающими вероятности
перехода одного символа в другой, то
получим графическое представление
модели двоичного канала (рис. 2.2).
Для наиболее часто используемых вероятностных моделей двоичных каналов делается допущение, что конверсии «1» в «0» или «0» в «1» – равновероятны:
или
(2.3)
где
p
– теперь
можно назвать просто вероятностью
ошибки. Такой двоичный канал называют
симметричным
(его вероятностная модель приведена
на рис. 2.2, б) в отличие от канала, для
которого
и именуемогонесимметричным
(рис.2.2,а).

Рис. 2.2. Вероятностная модель двоичных каналов: а) – несимметричного, б) – симметричного
Из
(2.3) следует, что вероятностная модель
двоичного симметричного канала полностью
определяется единственной величиной
– вероятностью ошибки при передаче
одного символа
.
Для нормально функционирующих реальных
двоичных каналов p<<0,1.
В современных АСОИиУ значительный объем оборудования занимает память, реализуемая в виде запоминающих устройств (ЗУ). Хранение информации в ЗУ и ее передача по каналам связи являются взаимнооднозначными преобразованиями, при которых входное слово, поступающее в канал передачи или записываемое в ЗУ и слово на выходе из канала передачи или считываемое из ЗУ должны совпадать. Следовательно, ЗУ можно рассматривать как канал хранения данных, в котором в отличие от канала передачи, информация распространяется не в пространстве, а во времени-слово, записанное в ЗУ, считывается из него спустя некоторое время, а не непосредственно. Из сказанного можно сделать заключение об идентичности структурных схем каналов передачи и хранения информации. Учитывая далее случайный характер причин возникновения ошибок в словах, хранящихся в ЗУ (внешние дестабилизирующие воздействия, неисправности в самом ЗУ), как это имеет место и для каналов связи, можно сделать заключение об эквивалентности вероятностных моделей каналов связи и каналов хранения и, следовательно, возможности применения для анализа надежности ЗУ вероятностных моделей двоичного канала связи, приведенных выше.
Из (2.2) с учетом (2.3) следует, что вероятностная модель двоичного симметричного канала полностью определяется единственной величиной – вероятностью ошибки или искажения одного символа p.
Кроме того, если учесть что искажения в каждом конкретном символе n – разрядного двоичного слова при его передаче по каналу связи или хранении в ЗУ равновероятны и происходят независимо от успешности или ошибочности передачи или хранения других символов (т.е. ошибки взаимно независимые), можно полагать, что вероятность P(d=r) одновременного искажения в канале r символов подчиняется биномиальному закону распределения
,
(2.4)
где
– число
искаженных символов (кратность ошибок),
–
число
сочетаний из
символов по
,
–
число
символов (разрядность) двоичного слова,
–
вероятность
искажения (ошибки) одного символа.
Из (2.4) следует, что в каналах передачи и хранения данных вероятность ошибки большей кратности меньше вероятности ошибок меньшей кратности, т.е. для вероятностей ошибок справедлив следующий ряд соотношений:
P(d=1)>P(d=2)>P(d=3).
Кроме
того, из (2.4) также следует справедливость
следующего утверждения – вероятность
ошибок кратности
зависит от:
– значения
–
вероятности искажения одного символа,
– общего
числа символов в слове –
.
Рассмотрим пример, подтверждающий справедливость этого утверждения.
Пример
2.1. Определим
значения вероятностей ошибок кратности
(
0,
1, 2, 3)
в 11–и и 16–и разрядных двоичных словах
в каналах, для которых вероятности
искажения одного символа равны p=0,001
и p=0,01.
Учитывая трудоемкость вычислений непосредственно по выражению (2.4), результаты получим с применением формулы Пуассона:
.
Результаты расчетов сведены в табл. 2.1 и 2.2.
Таблица 2.1
Вероятности
ошибок кратности
в
11–и разрядных словах
|
P(d=r) |
0,001 |
0,01 |
Увеличение в () Уменьшение в () |
|
P(d=0) |
0,989 |
0,895 |
в 1,1 раза |
|
P(d=1) |
0,0108 |
0,0994 |
в 9,2 раза |
|
P(d=2) |
0,000054 |
0,0050 |
в 92,5 раза |
|
P(d=3) |
0,00000016 |
0,000152 |
в 950 раза |
Таблица 2.2
Вероятности
ошибок кратности
в 16-и разрядных
словах
|
P(d=r) |
0,001 |
0,01 |
Увеличение в () Уменьшение в () |
|
P(d=0) |
0,984 |
0,851 |
в 1,2 раза |
|
P(d=1) |
0,015 |
0,137 |
в 9,13 раза |
|
P(d=2) |
0,0001 |
0,0104 |
в 104 раза |
|
P(d=3) |
0,00000055 |
0,000491 |
в 892,7 раза |
Из
анализа содержащихся в таблицах
результатов можно заключить, что с
ростом вероятности искажения одного
символа
происходит
перераспределение вероятностей ошибок
различной кратности – вероятность
получения неискаженного слова, т.е.
уменьшается,
а вероятности получения слов, искаженных
одной и тем более двумя или тремя
ошибками увеличиваются.
Так,
например, при увеличении
от
значения 0,001 до 0,01 (в 10 раз), вероятность
возникновения в 16-и разрядных словах
одинарных ошибок увеличивается в 9,13
раза,
а ошибок кратности d=3
в 892,7
раз.
Результаты расчетов, позволяющие оценить влияние на вероятности появления в словах ошибок различной кратности от разрядности слова n приведены в табл. 2.3.
Таблица 2.3
Вероятности
ошибок кратности
,
соответствующие словам разрядности
n
при р=0,01
-
n
P(d=r)
11
16
Увеличение в ()
Уменьшение в ()
P(d=0)
0,895
0,851
в 1,05 раза
P(d=1)
0,099
0,137
в 1,38 раза
P(d=2)
0,0050
0,0104
в 2,08 раза
P(d=3)
0,000152
0,000491
в 3,23 раза
Из
анализа этой таблицы можно заключить,
что наращивание разрядности слов n
сопровождается аналогичным, как и при
росте
,
но менее выраженным эффектом
перераспределения вероятностей –
вероятность отсутствия в слове ошибок
уменьшается, а вероятности появления
ошибок кратности d=1,2,3,…
– увеличиваются.
