- •Вопросы к экзамену по дисциплине «Информатика»
- •1 Курс бакалавры
- •Понятие информации и ее качественные характеристики.
- •Принципы измерения информации. Энтропия. Свойства энтропии.
- •Свойства энтропии
- •Условная вероятность и условная энтропия. Условная вероятность
- •Условная энтропия
- •Взаимная информация. Потери информации от помех. Избыточность.
- •Информационные характеристики дискретных источников.
- •Цепи Маркова. Характеристики Марковских источников.
- •Информационные характеристики дисп
- •Теоремы об эффективном кодировании.
- •Метод Хаффмана и другие методы сжатия данных.
- •Спектры и энтропия непрерывных источников.
- •Энтропия непрерывного источника
- •Информационные характеристики каналов связи. Система передачи информации
- •Теоремы Шеннона. Помехоустойчивое кодирование.
- •Типичные вероятности ошибок (нужно ли?)
- •Представление целых чисел в эвм. Сложение и вычитание.
- •Представление вещественных чисел. Умножение и деление.
- •Представление текста в эвм. Кодировки и обработка текстов.
- •Действия со строками
- •Обработка текстов
- •Представление графики и звука в эвм.
- •Основные типы данных и процедуры их обработки. Скалярные типы
- •Структурные типы
- •Динамические типы
- •Рекурсивные типы
- •Основные алгоритмы обработки массивов.
- •Основные алгоритмы обработки динамических структур.
- •Системы управления базами данных. Реляционная модель.
- •Реляционная алгебра
- •Функциональные зависимости и нормальная форма бд.
- •Объекты и классы. Объектно-ориентированная методология программирования.
- •Объектно-ориентированный подход
- •Технические средства хранения и передачи информации.
- •Беспроводные каналы связи
- •Спутниковая связь
Условная вероятность и условная энтропия. Условная вероятность
Условная энтропия
Совместная и условная энтропия связаны равенством
H (XY) = H (X) + H (Y | X)
Условная энтропия не больше безусловной, потому что добавление ограничений уменьшает неопределенность
H (Y | X) <= H (Y)
H (X | Y) <= H (X)
Следовательно: H (XY) <= H(X) + H(Y)
Взаимная информация. Потери информации от помех. Избыточность.
I(X,Y) = H(Y) - H(Y | X) >=0
Симметрично I(X,Y) = H(X) - H(X | Y).
Взаимная информация – мера снятой неопределенности при получении сообщений Y
Таким образом, имеет место полная симметрия между X и Y H (XY) = H(X) + H(Y | X) = H(Y) + H(X | Y)
I (X,Y) = H(X) - H(X | Y) = H(Y) - H(Y | X)
H(XY) = H(X) + H(Y) – I(X,Y)
Если X и Y независимы, то H(Y | X) = H(Y) и H(X | Y) = H(X), значит, I(X,Y) = 0 и H (XY) = H(X) + H(Y)
В теории информации избыточность означает, что количество информации в сообщении меньше чем объем используемого алфавита
От избыточности можно избавиться, применяя эффективное кодирование, объем сообщения при этом уменьшается
При передаче по каналу связи с помехами, наоборот, добавляют проверочные символы для обнаружения ошибок, увеличивая избыточность
Информационные характеристики дискретных источников.
Без памяти:
С памятью:
Цепи Маркова. Характеристики Марковских источников.
Математической моделью ДИСП является цепь Маркова, Это последовательность состояний S[1], S[2],…,S[n],…, каждое из которых принадлежит множеству {S1, S2,…,Sm}, и заданные вероятности перехода πn2n1(j2 | j1) = P(S[n2]=Sj2 | S[n1] = Sj1)
Они должны удовлетворять следующим свойствам:
Стационарный источник – источник, у которого совместные вероятности последовательностей букв не зависят от начала отсчета.
Эргодичный источник – если по одной достаточно большой реализации можно судить о всех возможных реализациях.
Информационные характеристики дисп
Теоремы об эффективном кодировании.
Цель эффективного кодирования – уменьшить избыточность источника
Каждому символу однозначно соответствует последовательность из 0 и 1 (кодовое слово)
Чем больше вероятность появления символа, тем меньше длина соответствующего кодового слова
Наиболее эффективно кодирование больших блоков информации, но оно и более трудоемко
Целесообразно обеспечить однозначное декодирование без дополнительных разделительных символов
Теорема кодирования 1
Теорема кодирования 2 (с док-вом и выводом)
Метод Хаффмана и другие методы сжатия данных.
Недостатки метода Хаффмана
Различные длины кодовых слов приводят к неравномерным задержкам при пересылке и декодировании
Снижение избыточности приводит к тому, что один неправильный бит означает неправильность всех последующих символов
На практике очень редко известны точные вероятности, что снижает эффективность.
Другие методы сжатия данных
Сжатие с потерей несущественной информации (MPEG)
Адаптивные алгоритмы (вероятности меняются по мере накопления статистики)
Динамические алгоритмы (Лемпеля-Зива) со словарем часто встречающихся последовательностей
Арифметическое кодирование (замена букв на интервалы чисел)
