- •Объекты информационной техники
- •Тема 1. Количество информации в дискретном сообщении. Виды сообщений в информационных системах
- •Тема 2: Среднее количество информации, переносимое одним символом по каналу и его свойства. Определение количества информации
- •Тема 3: Энтропия как мера неопределенности выбора. Сообщение как совокупность сведений о состоянии физической системы.
- •Практикум № 1.
- •Теоретическая часть
- •Практическая часть
- •Оформление отчета Практикум № 2.
- •Теоретическая часть
- •Практическая часть
- •Оформление отчета
- •Тема 4: Производительность дискретного источника сообщений.
- •Пропускная способность канала
- •Пропускная способность дискретного (цифрового) канала без помех
- •Пропускная способность нейронной сети
- •Производительность источника дискретных сообщений. Скорость передачи информации
- •Тема 5: Закон аддитивности информации.
- •Формула Хартли (1928)
- •Тема 6: Применение формулы Шеннона. Требования к мере неопределенности. Практикум № 3.
- •Теоретическая часть
- •Практическая часть
- •Оформление отчета
- •Тема 7: Открытие и развитие теоремы Котельникова.
- •Тема 8: Применение формулы Хартли.
- •Формула Хартли определяется:
- •Практикум №4.
- •Теоретическая часть
- •Практическая часть
- •Оформление отчета
- •Тема 9: Информационные характеристики источника дискретных сообщений. Информационные характеристики источника сообщений
- •Информационные потери
- •Скоростные характеристики
- •Производительность источника - количество бит, вырабатываемых в единицу времени - 1 секунду.
- •Тема 10:Основныемодели источника дискретных сообщений: источник с памятью и без памяти. Производительность источника дискретных сообщений.
- •Тема 11: Свойства эргодических последовательностей символов. Избыточность. Производительность источника дискретных сообщений.
- •Тема 12: Информационные характеристики дискретных каналов связи. Модели дискретных каналов: каналы с памятью и без памяти, стационарные и нестационарные.
- •Тема 13: Основная теорема Шеннона о кодировании в канале без помех
- •Тема 14: Блочное кодирование и его преимущества.
- •Линейные блочные коды
- •Тема 15: Основная теорема Шеннона о кодировании для канала с помехами.
- •Тема 16: Помехозащищенности передачи и приема данных.
- •Перекрестные наводки на ближнем конце
- •Интерпретация показателя next
- •Достоверность передачи данных. Ber
- •Практикум № 5.
- •Теоретическая часть
- •Эти способы удобно разбить на две группы.
- •Тема 17: Основы теории сжатия данных. Форматы сжатия данных
- •Методы сжатия данных
- •Практикум № 6.
- •Теоретическая часть
- •Кодирование Хаффмана
- •Практическая часть
- •Оформление отчета Практикум № 7.
- •Теоретическая часть Создания архива.
- •Просмотр содержимого архива, извлечение и удаление файлов из архива.
- •Извлекать файлы из архива можно двумя способами:
- •Режим обновления
- •Режим перезаписи
- •Дополнительные действия с файлами и архивам
- •2. Практическая часть
- •Оформление отчета Практикум № 8.
- •Теоретическая часть
- •Область применения
- •Тема 18:Кодирование и декодирование информации.
- •III. Закрепление полученных знаний. Практикум №9.
- •Теоретическая часть
- •Практическая часть
- •Оформление отчета Практикум №10.
- •Теоретическая часть Кодирование решает две прямопротивоположные задачи:
- •Практическая часть
- •Оформление отчета
Тема 8: Применение формулы Хартли.
Формула Хартли определяет количество информации, содержащееся в сообщении длины n.
Имеется алфавит А, из букв которого составляется сообщение:
| A | = m
Количество возможных вариантов разных сообщений:
N = m
где: N - возможное количество различных сообщений, шт; m - количество букв в алфавите, шт; n - количество букв в сообщении, шт.
Пример: Алфавит состоит и 2-х букв B и X, длина сообщения 3 буквы - таким образом m=2, n=3. При выбранных нами алфавите и длине сообщения можно составить N=m^n=2^3=8 разных сообщений "BBB", "BBX", "BXB", "BXX", "XBB", "XBX", "XXB", "XXX" - других вариантов нет.
Формула Хартли определяется:
I = log 2N = nlog 2m
где: I - количество информации, бит.
При равновероятности символов p=1/m, m=1/p формула Хартли переходит в собственную информацию.
Формула Хартли была предложена Ральфом Хартли в 1928 году как один из научных подходов к оценке сообщений. Допустим, нам требуется что-либо найти или определить в той или иной системе. Есть такой способ поиска как «деление пополам». Например, кто-то загадывает число от 1 до 100, а другой должен отгадать его, получая лишь ответы «да» или «нет». Задается вопрос: число меньше? Ответ и «да» и «нет» сократит область поиска вдвое. Далее по той же схеме диапазон снова делится пополам. В конечном итоге, загаданное число будет найдено.
Посчитаем сколько вопросов надо задать, чтобы найти задуманное число. Допустим загаданное число 27. Начали: Больше 50? Нет Больше 25? Да Больше 38? Нет Меньше 32? Да Меньше 29? Да Больше 27? Нет Это число 26? Нет Ура! если число не 26 и не больше 27, то это явно 27. Чтобы угадать методом «деления пополам» число от 1 до 100 нам потребовалось 7 вопросов.
Кто-то может задаться вопросом: а почему именно так надо задавать вопросы? Ведь, например, можно просто спрашивать: это число 1? Это число 2? И т.д. Но тогда вам потребуется намного больше вопросов. «Деление пополам» самый короткий рациональный способ найти число. Объем информации заложенный в ответ «да» или «нет» равен одному биту. Действительно, ведь бит может быть в состоянии 1 или 0. Итак, для угадывания числа от 1 до 100 нам потребовалось семь бит.
N = 2
Такой формулой можно представить, сколько вопросов потребуется, чтобы определить одно из возможных значений. N – это количество значений, а k – количество бит. Например, в нашем примере 100 меньше чем 27, однако больше, чем 26. Да, нам могло потребоваться и всего 6 вопросов, если бы загаданное число было бы 28.
Формула Хартли:
k = log2N.
Количество информации, необходимой для определения конкретного элемента, есть логарифм по основанию 2 общего количества элементов.
Практикум №4.
Тема: Правила определения энтропии по Хартли.
Цель:
Теоретическая часть
Вопрос: Какова сложность алгоритмов сортировки, оптимальных по числу сравнений?
Ответ: Отсортировать произвольный массив с точки зрения теории информации - это значит найти одну из n!=1*2*3 ... * n перестановок всех N элементов данного массива. Сравнения элементов между собой в данном соответствуют задаваемым вопросам с возможными вариантами ответов "да" или "нет". Тогда по формуле Хартли для сортировки элементов в худшем случае потребуется получит не менее log2N операций сравнения элементов между собой. Для оценки значения N! при больших N в математике применяют формулу Стирлинга:
