Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Скачиваний:
47
Добавлен:
23.06.2014
Размер:
54.78 Кб
Скачать

6

Часть 3 .

Вопрос 1 .

Дайте определение количества информации ?

Ответ :

Количество информации – это выбор между двумя знаками (битами) О и L , где L может отождествляться с 1 , “да” , “истина” и т.п. , а О с 0 , “нет” , “ложь” .

Вопрос 2 .

Когда понятия энтропии и количества информации полностью совпадают ?

Ответ :

Количество информации можно измерять тем , насколько понизилась энтропия системы после поступления сообщения .

Вопрос 3 .

Сформулируйте свойства энтропии дискретных сообщений ?

Ответ :

  1. Энтропия заранее известного сообщения равна 0 ;

  2. Во всех других случаях Н>0

Вопрос 4 .

В чём состоит процедура Шеннона-Фано ?

Ответ :

Процедура Шеннона-Фано состоит в построении оптимального неравномерного кода .

Вопрос 5 .

Как , исходя из теоремы кодирования Шеннона , добиться безызбыточного кодирования ?

Ответ :

Чтобы получить кодирование , о котором говорится в п.2 теоремы , следует не просто кодировать каждый знак в отдельности , а рассматривать вместо этого двоичные кодирования для п(к) групп по к знаков .

Вопрос 6 .

В чём заключается естественная избыточность языков человека ?

Ответ :

Различные сочетания букв не являются равновероятными . Поэтому , если при подсчёте энтропии русского текста исходить из двухбуквенных сочетаний , то она уменьшается ещё более – примерно до Н2 = 3,5 бита . С учётом трёхбуквенных сочетаний энтропия сокращается до Н3 = 2,98 бит , а если иметь в виду ещё более длинные сочетания , то приблизительно до Н4 = 2,5 бита . Каждая буква имеет в среднем информацию около 2,5 бита то есть примерно половину букв в осмысленных текстах можно было бы выбросить ; при этом по оставшимся буквам текст может быть понят и восстановлен . В теории информации говорят , наш язык обладает избыточностью порядка 50% . Это и есть естественная избыточность .

Вопрос 7 .

Для чего вносят искусственную избыточность в кодирование информации ?

Ответ :

Этот способ повышения помехоустойчивости основывается на том предположе-нии , что помеха носит случайный характер . Поэтому возможны как полжите-льные , так и отрицательные значения помехи , и многократной передачей одного и того же сигнала можно свести её влияние к нулю .

Вопрос 8 .

Каким образом решают проблему помехоустойчивости кода ?

Ответ :

Итак , избыточность кода – явление отнюдь не отрицательное . В информацион-ных системах обрабатывается , главным образом , цифровая информация и защищать её от помех можно практически лишь путём введения искусственной избыточности . Простейший способ повышения надёжности приёма информации – многократное повторение сообщений .

Вопрос 9 .

Для чего необходимо дискретное представление непрерывного сигнала ?

Ответ :

В дискретном случае имеют две причины избыточности : неравновероятность символов и наличие между ними статистической связи .

Вопрос 10 .

В чём суть теоремы отсчётов ?

Ответ :

Другими словами , функцию можно восстановить по значениям в точках отс-чёта (nts) , если частота отсчёта 1/ts не меньше удвоенной критической частоты. При этом не произойдёт никакой потери информации . Это утверждение и сост-авляет суть теоремы отсчётов .

Вопрос 11 .

Сформулируйте свойства энтропии непрерывных сообщений ?

Ответ :

  1. ОЭНС не изменится , если к сигналу прибавить не случайную величину с .

  2. Для случайной величины , ограниченной на конечном отрезке , максимальная энтропия достигается при равномерном распределении .

  3. Дифференциальная энтропия непрерывного сигнала , распределённого по гауссовскому закону , прямо пропорциональна логарифму дисперсии вероят-ных значений этого сигнала .

Вопрос 12 .

Что такое пропускная способность канала связи ?

Ответ :

Этот предел называется пропускной способностью канала :

С = sup RA ,

{A}

Вопрос 13 .

Какие существуют способы оценки полезности информации ?

Ответ :

Рассмотрим некоторые способы оценки полезности (ценности) информации в практических задачах теории управления . Предположим , что информация ха- рактеризуется некоторым минимальным набором показателей : количество ин- формации I , качество (ценность) единицы информации с точки зрения достиже- ния определённых целей и себестоимость единицы информации С . Производ-ными от этого минимального набора показателей являются : количество взвешен-ной по ценности информации (полезная информация) :

I n = f (I , ) .

Соседние файлы в папке 1- 1_Информатика ()