- •Государственное образовательное учреждение высшего профессионального образования кгту
- •Теория информации
- •Учебное пособие
- •Аннотация.
- •Введение.
- •Если говорить немного подробнее, можно выделить:
- •Уровень элементарных частиц;
- •Линия связи
- •(Укрупнённая структурно-функциональная схема)
- •1 Сообщение
- •Общие замечания
- •Источники информации
- •Событие, как источник информации
- •1.2.2. Материальная система, как источник информации.
- •1.2.3 Одиночный параметр состояния, как источник информации
- •Основные характеристики источника информации
- •1.3.1 Объём первичного алфавита
- •1.3.2 Энтропия источника информации
- •1. 4 Языки, коды и их свойства
- •1.4.1 Естественные коды
- •1.4.2 Вторичные коды и их свойства
- •1.4.2.1 Коды с вероятностными ограничениями
- •1.4.2.2 Коды с фиксированными ограничениями
- •1.5 Структура сообщений
- •1.5.1 Дискретная числовая последовательность
- •1.6 Первая теорема к. Шеннона о кодировании
- •Формулировка и доказательство
- •Практические методы оптимального кодирования
- •Метод Шеннона-Фано
- •Метод Хаффмена
- •2.1 Начальные сведения о сигналах
- •2. 2 Актуализация непрерывных сигналов
- •2.2.1 Непрерывные технические сигналы
- •Математические модели непрерывных сигналов
- •Описание детерминированных сигналов
- •2.4.1.1 Временное представление непрерывного сигнала
- •2.4.1.2 Частотное представление непрерывного сигнала
- •2.4.1.2.1 Непрерывные преобразования Фурье
- •Ряды Фурье
- •2.4.2 Представление реальных сигналов
- •2.4.3 Теоремы Котельникова
- •Теорема Котельникова для функций с ограниченным спектром
- •2.4.3.2 Теорема Котельникова для функций, заданных на конечном интервале.
- •2.6 Некоторые следствия и полезные соотношения
- •2.6.1 Преобразования координат
- •Квадратичный эффект
- •2.6.3 Об аддитивности квадратичного эффекта
- •2.6.3 Описания и наглядные способы отображения сигналов
- •Потенциальный носитель сигналов первого типа
- •Потенциальный носитель сигналов второго типа
- •2.6.3.3 Потенциальный носитель сигналов третьего типа
- •X(t) Слева на рисунке представлен
- •Спектр и полоса пропускания
- •2.6.4 Средства и способы описания случайных сигналов
- •2.6.4.1. Начальные сведения о случайных функциях
- •2.6.4.2. Свойства и дополнительные характеристики ансамбля
- •2.6.4.3. Спектры случайных функций
- •3.1 Непрерывное распределение вероятностей
- •3.3.1 Пример 1
- •3.3.1 Пример 2
- •3.3.2 Максимальная энтропия из возможных
- •4.1 Общие сведения о шумах
- •4.2 Классификация помех
- •4.5.3. Способы описания помех.
- •4.4. Эргодический шум.
- •3.1 Общие соображения
- •3.1.2 Энтропия суммы двух ансамблей
- •3.1.3 Пропускная способность реального канала.
- •3.1.3.1 Взаимная информация двух ансамблей
- •3.1.3.3 Скорость передачи информации
- •3.1.5.1 Вторая теорема Шеннона о кодировании.
- •Входной алфавит. Выходной алфавит
- •3.3 Некоторые аспекты использования каналов
- •3.3.1 Модуляция
- •3.3 .2 Амплитудная модуляция
- •3.3.3 Угловая модуляция.
- •3.4.2 Теоретические основания
- •3.4.2.1 Временное разделение каналов.
- •3.4.3.1 Амплитудное разделение каналов.
- •3.4.3.2 Частотное разделение каналов
- •3.4.3.3 Фазовое разделение каналов.
- •1 Некоторые понятия из теории вероятностей
- •Случайность и её мера
- •Понятие ансамбля
- •1.3 Составные ансамбли и условные вероятности
- •1.3.2. Центральная предельная теорема
- •3 Корреляция
- •3.1 Общие сведения
3.1 Непрерывное распределение вероятностей
Отступим в наших рассуждениях на шаг назад, и будем считать, что в некий момент количество символов k в алфавите ещё конечно. В такой момент существует некоторая вероятность р(Δхk)xΔх того, что X отличается от ожидаемого наперёд названного значения Хq не более, чем на Δх.
Совершенно очевидно, что на этом этапе наших рассуждений р(Δхk)xΔх =1.Теперь отпустим k к бесконечности и проследим за
limр(Δхk)xΔх =1. Аргумент у р(Δхk) стягивается в произвольную точку: записываем – р(х) (индекс здесь – ни к чему). Размер малого предельного интервала символизирует запись dх. С единицей справа при таком предельном переходе ничего не происходит, но обозначение
limследует заменить на. Окончательно имеем:р(х)dх =1
Такая запись означает, что для непрерывной функции X(t) существует некая функция распределения вероятностей р(х), суммарная площадь под которой над осью x от - до+равна единице. Строго говоряр(х) – это функция распределения не вероятностей, а плотности вероятностей в окрестности х .
Это и есть непрерывное распределение плотности вероятностей реализации ожидаемых значений X(t) = х нашей функции X(t).
Следовательно, речь идёт не просто о непрерывной функции, а о случайной непрерывной функции (именно поэтому она теперь записана шрифтом с наклоном).
Теперь это доказано строго математически, и потому утверждение о том, что математической моделью непрерывного сообщения, вообще, служит такой, хорошо Вам известный математический объект, как непрерывная случайная функция Х(t). Вы воспримете с доверием и удовлетворением.
С этим багажом новых знаний и доверием продолжим тему.
3.2 Энтропия непрерывных распределений
Вспомним, что для дискретных источников информации на базе дискретного распределения вероятностей введено понятие энтропии, а на его основе – ещё несколько количественных мер для свойств источников и получаемых от него сообщений. В связи с этим возникает вопрос о существовании энтропии непрерывных распределений. Попытаемся прояснить этот вопрос тем же методом предельного перехода, который мы только что применили для определения понятия непрерывного распределения.
Итак, конструируем выражение похожее на энтропию и точно её ещё представляющее в некий момент, когда количество символов k в алфавите ещё конечно:
Н(хk)= – р(хk)xхklog{р(хk)xхk}
Теперь отпустим k к бесконечности и вычислим соответствующий предел при стягивании интервала в точку.
limН(х) = lim[–рхk)xхklog{рхk)xхk}]=
=lim{– р(хk)xхklog{р(хk)} – lim р(хk)xхklog{хk}]=
= – р(x)xlogр(x)dx – lim log(xk)x lim р(x)xxk .
Если первое слагаемое в этом выражении – полный аналог энтропии, то второе слагаемое порождает проблему(lim р(x)xyk =р(x)dx = 1,
но lim log(xk ) = log(0) = –!).
С одной стороны, энтропия непрерывного распределения существует и записывается в привычном выражении (Н(x) = – р(x)logр(x)dx), но с другой – к ней приписывается неприятная (потому, что бесконечная) добавка. В то же время такая добавка оправдана не только математически, ибо, как мы уже отмечали, количество точек даже на малом непрерывном отрезке – бесконечно, и реализация одного определённого значения непрерывной функции приносит бесконечное количество информации. Информационная производительность любого непрерывного источника информации выглядит бесконечной.
На практике от этой неприятности теорию информации избавляет отсутствие реальной необходимости абсолютно точно знать какой-то там параметр реального процесса или системы. Обычно любой непрерывно изменяющийся параметр х достаточно знать приблизительно, достаточно быть уверенным, что его значение лежит в некоторых пределах, например, в некоторой малой окрестности от х1= a до х2 = b. Остающаяся, при этом неопределённость Н(х) = – р(х)logр(х)dх, практического значения не имеет, но количество информации I(х), которое можно теперь измерять разностью между начальной неопределённостью Н(х) = – р(х)logр(х)dх (до измерения параметра) и остаточной, практически допустимой неопределённостью
Н(х) = – р(х)log[р(х)dх после его измерения с доступной (или просто с практически достижимой ) точностью , всегда будет величиной конечной.
Минимальное количество информации, которое необходимо получить от непрерывного источника чтобы оценить значение непрерывно изменяющейся величины х с требуемой точностью , то есть величина
I (х)= min [Н(х) – Н(х)]= Н() называется -энтропией непрерывного
источника.
Вот в таком качестве понятие энтропии «работает» и применительно к непрерывным источникам. В разности [Н(х) – Н(х)] присутствуют две бесконечности с разными знаками и компенсируют друг друга. Следовательно, и с математической точки зрения здёсь всё в полном порядке.
При всём этом осознавать следует главную вещь:
в реально бесконечном разнообразии природы нужно уметь ориентироваться и в каждом конкретном случае выбрать такой порог чувствительности к подробностям, который обеспечивает достаточное количество необходимой информации и не позволяет засорять каналы и память, ненужными подробностями.
Далее вспомним, что при передаче сообщений дискретными сигналами целесообразно применять дискретные последовательности с максимальной энтропией. В связи с этим в теории непрерывных сигналов становится интересным вопрос о поиске таких распределений р(х) для ансамблей, которые обеспечивали бы им максимальную энтропию.
В МАТЕМАТИЧЕСКОМ ДОПОЛНЕНИИ изложена упрощённая версия одной из теорем вариационного анализа, на базе которой построена методика нахождения «оптимальных» непрерывных распределений для различных сигналов. Ниже она демонстрируется на нескольких конкретных примерах.