Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Shpory_po_TI.doc
Скачиваний:
1
Добавлен:
01.05.2025
Размер:
2.11 Mб
Скачать

66 Критерии качества восстановления (кода)

Критерии качества - это числовые уровни факторов, поставленные в качестве целей. Объективно оценить или измерить критерии качества непосредственно довольно трудно. Поэтому, были введены метрики качества, которые легче измерять и оценивать. Оценки принимают значения от 0 до 10:

Удобство проверки на соответствие стандартам (auditability)

Точность управления и вычислений (accuracy)

Функциональная полнота (completeness)

Однородность используемых правил проектирования и документации (consistency)

Степень стандартности форматов данных (data commonality)

Устойчивость к ошибкам (error tolerance)

Эффективность работы (execution efficiency)

Расширяемость (expandability)

Широта области потенциального использования (generality)

Независимость от аппаратной платформы (hardware independence)

Полнота протоколирования ошибок и других событий (instrumentation)

Модульность (modularity)

Удобство работы (operability)

Защищенность (security)

Простота работы (simplicity)

Независимость от программной платформы (software system independence)

67. Блоковые коды.

Различают разделимые и неразделимые блоковые коды. При кодировании разделимыми кодами выходные последовательности состоят из символов, роль которых может быть отчетливо разграничена. Это информационные символы, совпадающие с символами последовательности, поступающей на вход кодера канала, и избыточные (проверочные) символы, вводимые в исходную последовательность кодером канала и служащие для обнаружения и исправления ошибок.

При кодировании неразделимыми кодами разделить символы выходной последовательности на информационные и проверочные невозможно.

Пусть кодируемая информация делится на фрагменты длиной k бит, которые преобразуются в кодовые слова длиной n бит. Тогда соответствующий блоковый код обычно обозначают (n,k). При этом число называется скоростью кода.

Если исходные k бит код оставляет неизменными, и добавляет nk проверочных, такой код называется систематическим, иначе несистематическим.

Задать блоковый код можно по-разному, в том числе таблицей, где каждой совокупности из k информационных бит сопоставляется n бит кодового слова. Однако, хороший код должен удовлетворять, как минимум, следующим критериям: - способность исправлять как можно большее число ошибок; - как можно меньшая избыточность; - простота кодирования и декодирования.

Нетрудно видеть, что приведенные требования противоречат друг другу. Именно поэтому существует большое количество кодов, каждый из которых пригоден для своего круга задач.

Практически все используемые коды являются линейными. Это связано с тем, что нелинейные коды значительно сложнее исследовать, и для них трудно обеспечить приемлемую легкость кодирования и декодирования.

68. Свойства энтропии.

Ансамблем U, наз полная совокупность состояний с вероятностями их появления, составляющими в сумме единицу:

причем

Мера неопределенности выбора дискретным источником состояния из ансамбля U, удовлетворяющая указанным условиям, была предложена американским ученым К. Шенноном. Ее называют энтропией дискретного источника информации или энтропией конечного ансамбля:

где С — произвольное положительное число.

СВОЙСТВА ЭНТРОПИИ

1. Энтропия является вещественной и неотрицательной величиной, так как для любого i(1<=i<=N) рi изменяется в интервале от 0 до 1, log pi отрицателен и, следовательно, — pi log pi положительна.

2. Энтропия — величина ограниченная. Для слагаемых - pi log pi в диапазоне 0<р<=i1 ограниченность очевидна. Остается определить предел, к которому стремится слагаемое — pi log pi, при рi—>0, поскольку — log pi при этом неограниченно возрастает:

Обозначив = 1/рi и воспользовавшись правилом Лопиталя, получим

3. Энтропия обращается в нуль лишь в том случае, если вероятность одного из состояний равна единице; тогда вероятности всех остальных состояний, естественно, равны нулю. Это положение соответствует случаю, когда состояние источника полностью определено.

4.Энтропия максимальна, когда все состояния источника равновероятны.

5. Энтропия источника и с двумя состояниями u1 и u2 изменяется от нуля до единицы, достигая максимума при равенстве их вероятностей:

p(u1)=p(u2)=p=0,5

6. Энтропия объединения нескольких статистически независимых источников информации равна сумме энтропии исходных источников.

7. Энтропия характеризует среднюю неопределенность выбора одного состояния из ансамбля. При ее определении используют только вероятности состояний, полностью игнорируя их содержательную сторону. Поэтому энтропия не может служить средством решения любых задач, связанных с неопределенностью. Например, при использовании этой меры для оценки неопределенности действия лекарства, приводящего к полному выздоровлению больных в 90 % случаев и улучшению самочувствия в остальных 10 % случаев, она получится такой же, как и у лекарства, вызывающего в 90 % случаев смерть, а в 10 % — ухудшение состояния больных.

69. Коды Хэмминга (d=4).

Кодом Хэмминга называется (n,k)-код, проверочная матрица которого имеет r = n-k строк и 2r-1 столбцов, причем столбцами являются все различные ненулевые последовательности.

Пример. Для (7,4)-кода Хэмминга проверочная матрица в упорядоченном виде имеет вид:

Пусть переданное кодовое слово v(1,0)=1101001,а принятое слово - v(1,0)=1101101.

Синдром, соответствующий принятому слову будет равен

Вычисленный синдром указывает на ошибку в пятой позиции.

Элементы синдрома определяются из выражений

S0=v1+v3+v5+v7=1+0+1+1=1

S1=v2+v3+v6+v7=1+0+0+1=0

S2=v4+v5+v6+v7=1+1+0+1=1

Корректирующая способность кода Хэмминга может быть увеличена введением дополнительной проверки на четность. В этом случае проверочная матрица для рассмотренного (7,4)-кода будет иметь вид

а кодовое расстояние кода d0=4.

Проверочные уравнения используются для построения кодера, а синдромные - декодера кода Хэмминга.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]