- •Н.Н. Куцый, в.Н. Сизых введение в теорию информации учебное пособие
- •Оглавление
- •Часть 1. Вероятностные основы теории информации
- •Часть 2. Основы прикладной теории информации
- •Введение
- •Часть 1. Вероятностные основы теории информации
- •Определение априорной и апостериорной вероятностей дискретного источника
- •Дискретные источники сообщений
- •Основные определения и оценка случайного события
- •Способы определения случайных событий
- •Определение априорной вероятности
- •Элементы комбинаторики
- •Схемы подсчетов априорной вероятности по формуле (1.1)
- •Задачи для самостоятельной работы
- •Определение апостериорной вероятности
- •Задачи для самостоятельной работы
- •2. Условная и полная вероятности дискретного источника
- •2.1. Условная вероятность
- •Свойства независимых несовместных событий а1 и а2
- •Свойства зависимых событий а1 и а2
- •Задачи для самостоятельной работы
- •2.2. Полная вероятность
- •Задачи для самостоятельной работы
- •3. Случайные величины дискретных источников
- •3.1. Случайные величины
- •Задача для самостоятельной работы
- •4. Законы распределения дискретных случайных величин
- •4.1. Числовые характеристики дискретных св
- •4.2. Типовые законы распределения вероятностей дискретных св
- •Задачи для самостоятельной работы
- •5. Системы дискретных случайных величин
- •5.1. Характеристики систем дискретных случайных величин
- •5.2. Закон распределения системы дискретных случайных величин
- •Задачи для самостоятельной работы
- •6. Дискретные случайные процессы
- •6.1. Случайные процессы
- •6.2. Потоки событий
- •7. Марковские цепи
- •7.1. Марковские цепи с дискретными состояниями
- •7.2. Марковские цепи
- •7.3. Расчет цепи Маркова для стационарного режима
- •Задачи для самостоятельной работы
- •Часть 2. Введение в прикладную теорию информации
- •8. Энтропия как мера неопределенности
- •8.1. Энтропия
- •8.2. Условная энтропия
- •Задачи для самостоятельной работы
- •9. Оценка информационных характеристик дискретных источников
- •9.1. Условные и безусловные вероятности появления символов в виде стохастического вектора и матрицы дискретного источника
- •Снятые статистические данные источника
- •9.2. Информационные характеристики дискретного источника
- •Задача для самостоятельной работы
- •10. Основы теории кодирования и передачи информации
- •10.1. Кодирование информации
- •10.2. Формирование экономичного кода алфавита
- •10.2.1. Код Шеннона–Фано
- •10.2.2. Код Хаффмена
- •Задачи для самостоятельной работы
- •Решения и ответы задач для самостоятельной работы
- •Дополнительные задачи по курсу «Теория информации» Задача 1
- •Задача 2
- •Задача 3
- •Задача 8
- •Задача 22
- •Задача 23
- •Задача 24
- •Задача 25
- •Приложения Приложение 1. MatLab – программы для расчета цепи Маркова
- •Приложение 2. MatLab – программа для определения энтропии дискретного источника
- •Приложение 3. MatLab – программа для оценки информационных характеристик дискретных источников с памятью
- •Приложение 4. Алгоритмы кодирования и декодирования
- •Алгоритм построения кодового дерева кода Хаффмена
- •MatLab-программа декодирования арифметического кoда
Часть 1. Вероятностные основы теории информации
Определение априорной и апостериорной вероятностей дискретного источника
Дискретные источники сообщений
Основные определения и оценка случайного события
Каждый объект или явление А характеризуется множеством сведений
ai (просто сведениями):
A={a1,a2,…ai,…aN} , N≤∞,
где │A│=N – мощность множества А, N=∞ – мощность бесконечного множества (континуума).
В
процессе получения информации об объекте
или явлении можно получить информацию
об одном Ai={ai}
(элементарное
сведение), нескольких Ar={a1,a2,…ar},
r<N
(
)
или сразу все сведения А
о состоянии объекта или субъекта.
В общем случае сведения являются непредсказуемыми и называются случайными событиями.
Случайное событие – событие, которое при неоднократном воспроизведении одного и того же опыта протекает каждый раз по своему.
Исходя из этого, аi называют элементарным случайным событием,
Ai – случайным событием, A – множеством элементарных случайных событий. Если │А│>1, то событие А называется сложным событием.
Помни: Аi – простое событие, которое нельзя разложить на составляющие;
Аr – сложное событие, представленное в виде суммы элементарных событий.
События можно складывать, вычитать, перемножать.
Множество подмножеств Аr в пространстве событий А называется алгеброй событий F(A).
Пример 1.1. А = {1,2,3,4,5,6} – пространство исходов бросаний игральной кости, событие A1 ={2,4,6} – выпадение четного числа очков (сложное событие), A2={6} – выпадение числа 6 (элементарное событие).
Случайное событие оценивается числом, определяющим интенсивность этого события. Это число называется вероятностью события P(Ai). Вероятность элементарного события обозначают рi.
Вероятность события есть численная мера степени объективности, возможности этого события. Чем больше вероятность, тем более возможно событие.
Событие
А
называется
достоверным
событием,
если
;
невозможным
событием,
если
.
Все остальные события имеют вероятность
от 0 до 1.
События А и Ā называются противоположными, если А наступает тогда, когда не наступает Ā (например, выпадение четного и нечетного числа очков)
Событие А1 и А2 называются несовместными, если не существует никакого исхода, общего для этих событий
Ø.
В
рамках теории информации дискретные
подмножества
называются сообщениями,
элементарные события
– элементарными
сообщениями. Источники,
из которых получены эти сообщения,
названы дискретными
источниками сообщений.
Способы определения случайных событий
Для определения вероятностей случайных событий используют непосредственные и косвенные схемы подсчетов. При непосредственном подсчете различают априорную и апостериорную схемы подсчетов:
А). Априорная схема подсчетов – априорно (до опыта) подсчитывают число опытов m, в которых событие появилось, и общее число произведенных опытов n.
Б). Апостериорная схема подсчетов – апостериорно (после опыта) подсчитают число опытов m, в которых событие появилось, и общее число произведенных опытов n.
Косвенные схемы подсчетов – схемы, основанные на аксиоматической теории. Здесь события определяются как множества, над которыми можно осуществлять все теоретико-множественные операции.
Теория множеств является логическим фундаментом современной теории вероятности и была предложена в 1933 г. А.Н. Колмогоровым. Им сформулированы основные аксиомы теории вероятностей.
Аксиома 1. Поле событий F(A) является алгеброй множеств.
Эта аксиома указывает на аналогию теории множеств и теории вероятности.
Аксиома 2. Каждому множеству Ar из F(A) поставлено в соответствие действительное число P (Ar), называемое вероятностью события Ar.
Аксиома 3. Вероятность достоверного события равна 1:
Аксиома 4. Если А1и A2 несовместны, то вероятность суммы этих событий равна сумме их вероятностей
при условии Ø или для множества несовместных событий
Ø,
