- •Предисловие
 - •Введение
 - •Концептуальные основы информационных процессов.
 - •О понятии «Информация» [1,2]
 - •1.2. Виды и свойства информации [2].
 - •1.3. Этапы обращения информации [1].
 - •1.4. Информационные системы [1].
 - •1.5. Система передачи информации [1].
 - •1.6. Уровни проблем передачи информации [1].
 - •1.7. О смысле «Теории информации» в системе связи [1].
 - •2. Математические основы теории вероятностей [6,4].
 - •2.1. Случайное событие и вероятность.
 - •2.2 Случайные величины и их вероятностные характеристики.
 - •Случайные функции и их вероятностное описание.
 - •2.4 Корреляционные характеристики случайных процессов.
 - •Дифференциальный; 2) интегральный;
 - •3) Плотность вероятностей.
 - •Дифференциальный; 2) интегральный; 3) числовой.
 - •Свойства энтропии [1,3 и др.].
 - •Условная энтропия и ее свойства [1,2 и др.].
 - •Свойства условной энтропии
 - •Энтропия непрерывного источника информации (дифференциальная энтропия) [1, 2 и др.].
 - •Передача информации от дискретного источника [1 и др.].
 - •Передача информации от непрерывного источника [1 и др.].
 - •Основные свойства количества информации [1 и др.].
 - •4. Информационные характеристики источника сообщений и канала связи.
 - •4.1. Введение [1 и др.].
 - •4.2. Информационные характеристики источника дискретных сообщений.
 - •4.2.1 Модели источника дискретных сообщений [1 и др.].
 - •4.2.2 Свойства эргодических последовательностей знаков [1 и др.].
 - •4.2.3 Избыточность источника [1 и др.].
 - •4.2.4 Производительность источника дискретных сообщений [1 и др.].
 - •4.3. Информационные характеристики дискретных каналов связи.
 - •4.3.1 Модели дискретных каналов [1, 4, 5 и др.].
 - •Скорость передачи информации по дискретному каналу [1 и др.].
 - •Пропускная способность дискретного канала без помех [1 и др.].
 - •Пропускная способность дискретного канала с помехами [1 и др.].
 - •Информационные характеристики непрерывных каналов связи [1 и др.].
 - •Согласование физических характеристик сигнала и канала [1 и др.].
 - •Согласование статистических свойств источника сообщений и канала связи [1 и др.].
 - •4.6 Контрольные вопросы к разделам 3 и 4 в форме «Задание – тест» тема: «Количественная оценка информации».
 - •1) Бод; 2) бит (двоичная цифра); 3) байт.
 - •1) Сумма; 2) произведение; 3) разность.
 - •1) Безусловной энтропией; 2) условной энтропией;
 - •3) Совместной энтропией.
 - •1) Объем алфавита;
 - •2) Объем алфавита и вероятности создания источником отдельных знаков; 3) вероятности создания источником отдельных знаков.
 - •1) Нестационарным; 2) стационарным; 3) постоянным.
 - •1) Нестационарным; 2) стационарным; 3) постоянным.
 - •1) С памятью; 2) без памяти; 3) регулярный.
 - •1) С памятью; 2) без памяти; 3) регулярный.
 - •1) Симметричный; 2) несимметричный; 3) условный.
 - •1) Симметричный; 2) несимметричный; 3) условный.
 - •1) Максимальная скорость; 2) пропускная скорость; 3) предел скорости.
 - •1) Уменьшается; 2) увеличивается; 3) не изменяется.
 - •1) Уменьшается; 2) увеличивается; 3) не изменяется.
 - •5.2. Классификация кодов [4 и др.].
 - •5.3. Представление кодов [4 и др.].
 - •5.4. Оптимальное (эффективное) статистическое кодирование [3 и др.].
 - •5.4.1 Методы эффективного кодирования некоррелированной последовательности знаков [1 и др.].
 - •Методика построения кода Шеннона – Фано [1].
 - •Методика построения кода Хаффмена [2 и др.].
 - •5.4.2 Свойство префиксности эффективных кодов [1 и др.].
 - •5.4.3 Методы эффективного кодирования коррелированной последовательности знаков.
 - •5.4.4 Недостатки системы эффективного кодирования.
 - •1) Номер разряда;
 - •2) Множитель, принимающий целочисленные значения;
 - •3) Количество разрядов.
 - •Всякий блочный код можно представить таблицей:
 - •Всякий блочный код можно представить таблицей:
 - •Литература:
 - •Содержание
 
Передача информации от дискретного источника [1 и др.].
Передача информации инициируется либо самим источником информации, либо осуществляется по запросу. Количество информации, полученное адресатом, определяется мерой снятой неопределенности (см. раздел 3.1, формула (3.6))
где H1 – энтропия источника, H2 – энтропия в приемнике, оставшаяся после получения сигнала.
Основное понятие теории информации – количество информации – рассматривается в данном параграфе применительно к передаче отдельных статистически несвязанных элементов сообщения. Дискретный источник сообщений при этом полностью характеризуется ансамблем
Выясним, насколько будет изменяться неопределенность относительно состояния источника сообщения при получении адресатом элемента сообщения с выхода канала связи. Алфавиты передаваемых и принимаемых элементов сообщения считаем идентичными.
Вследствие воздействия помех полученный элемент сообщения в общем случае отличается от переданного. Подчеркнем это различие. Обозначим принимаемые элементы сообщения другими буквами: s1, …, sj, …, sN.
Априорная неопределенность (неопределенность до получения элемента сообщения) относительно состояния источника не является полной. Предполагается, что адресату известен алфавит элементов сообщения, а из прошлого опыта он знает вероятности их появления. Считая, что состояния источника реализуются независимо, априорная частная неопределенность появления элемента сообщения zi.
где p(zi) – априорная вероятность появления элемента сообщения zi.
Предполагаются также известными некоторые сведения относительно помех в канале связи. Обычно считают, что между элементами сообщения и помехой статистические связи отсутствуют, искажения отдельных элементов сообщения являются событиями независимыми и адресату известна совокупность условных вероятностей p(zi|sj) (1≤i≤N, 1≤j≤N) того, что вместо элемента сообщения zi будет принят элемент сообщения sj.
При получении конкретного элемента сообщения sj адресату становится известным значение условной вероятности p(zi|sj), называемой апостериорной (послеопытной) вероятностью реализации источником элемента сообщения zi. Это позволяет найти апостериорную частную неопределенность, остающуюся у адресата относительно выдачи источником элемента сообщения zi после получения конкретного элемента сообщения sj:
                                             
                             (3.32)
Поскольку получение информации мы связываем с уменьшением неопределенности, естественно определить частное количество информации I(zi), получаемое при приеме элемента сообщения sj относительно некоторого реализованного источником элемента сообщения zi как разность частных неопределенностей, имевшихся у адресата до и после получения элемента сообщения (априорной и апостериорной):
                            
               (3.33)
Анализ формулы (3.33) позволяет сделать следующие заключения:
частное количество информации растет с уменьшением априорной и увеличением апостериорной вероятностей реализации элемента сообщения источником, что находится в полном соответствии с нашими интуитивными представлениями;
частное количество информации об элементе сообщения zi может быть не только положительным, но и отрицательным, а также нулем, что зависит от соотношения априорной p(zi) и апостериорной p(zi|sj) вероятностей. Если вероятность того, что источником был реализован элемент сообщения zi увеличилась после приема элемента сообщения sj, т.е. p(zi|sj) > p(zi), то полученное частное количество информации положительно. Если эта вероятность не изменилась, т.е. p(zi|sj) = p(zi), то имевшая место неопределенность тоже не изменилась и частное количество информации равно нулю.
Наконец, случай p(zi|sj) < p(zi) соответствует увеличению неопределенности относительно реализации zi после получения элемента сообщения sj, и, следовательно, частное количество информации отрицательно;
в случае отсутствия помех апостериорная вероятность p(zi|sj)=1. При этом частное количество информации численно совпадает с частной априорной неопределенностью реализации данного элемента сообщения zi;
Это максимальное частное количество информации, которое можно получить об элементе сообщения zi;
частное количество информации относительно реализации источником элемента сообщения zi, содержащееся в принятом элементе сообщения sj, равно частному количеству информации относительно sj, содержащемуся в элементе сообщения zi:
                    
     (3.34)
Хотя имеют место случаи, где важно оценить частное количество информации I(zi, sj), для задачи анализа и оптимизации функционирования информационных систем более рациональны усредненные характеристики, отражающие статистические свойства источника информации и канала связи.
Найдем среднее количество информации, содержащееся в любом принятом элементе сообщения относительно переданного (реализованного) источником. До получения конкретного элемента сообщения средняя неопределенность, имеющаяся у адресата, относительно реализации источником любого элемента сообщения равна энтропии источника. Ее называют априорной энтропией источника.
Средняя неопределенность относительно любого состояния источника, остающаяся у адресата после получения конкретного элемента сообщения sj, характеризуется частной условной энтропией H(Z|sj):
                              
                     (3.35)
Это случайная величина, зависящая от того, какой конкретно элемент сообщения принят.
Средняя неопределенность по всему ансамблю принимаемых элементов сообщений равна условной энтропии источника H(Z|S):
или
                         
        (3.36)
Эту условную энтропию называют апостериорной энтропией источника информации.
Таким образом, при наличии помех среднее количество информации, содержащееся в каждом принятом элементе сообщения, относительно любого переданного равно разности априорной и апостериорной энтропией источника:
                                            
                                (3.37)
Представив априорную и апостериорную энтропии соответственно выражениям (3.5) и (3.36) и проведя несложные преобразования, получим формулу для количества информации непосредственно через вероятности:
          
  (3.38)
Если частный характер количества информации специально не оговаривается, мы всегда имеем дело с количеством информации, приходящимся в среднем на один элемент сообщения.
