Задания / Лаба_2
.docx
ЛАБОРАТОРНАЯ РАБОТА № 2
«ОПРЕДЕЛЕНИЕ КОЛИЧЕСТВА ИНФОРМАЦИИ И ЭНТРОПИИ В СЛУЧАЙНЫХ ДИСКРЕТНЫХ СООБЩЕНИЯХ О СОСТОЯНИИ ФИЗИЧЕСКОЙ СИСТЕМЫ»
Цель лабораторной работы: по каналу связи передается информационное сообщение о состоянии физической системы в виде последовательности дискретных значений случайных величин. Каждое численное значение сообщения отражает определенное состояние физической системы. Вариант задания получить у преподавателя.
Методические указания к выполнению лабораторной работы.
Очевидно, что если бы состояние физической системы было бы известно заранее, не было бы смысла передавать сообщение. Поэтому в качестве объекта, о котором передается информация, будем рассматривать некоторую физическую систему Х, которая случайным образом может оказаться в том или ином состоянии, т.е. систему, которой заведомо присуща какая-то степень неопределенности.
Мера Хартли имеет размерность в битах, если основание логарифма равно 2. Логарифмическая мера информации обладает свойством аддитивности, т.е. количество информации содержащемся в нескольких независимых сообщениях равно сумме количеству информации в каждом из них.
Получение информации об интересующей нас величине заключается в уменьшении неопределенности ее значения. При этом важно знать значение среднего количества информации на одно сообщение источника, которое математически совпадает с энтропией H(x), введенное основоположником теории информации К. Шенноном. Энтропия H(x) есть мера неопределенности исхода случайного опыта или события.
Энтропию сообщения определяют на основе следующих суждений:
Пусть источник информации передает m сообщений P(xi): P(x1),…. P(xm-1), P(xm).
Тогда под энтропией H(х) понимают:
где P(x) – вероятность наступления события
Для закона распределения P(x) непрерывных случайных величин энтропию определяют:
Для закона распределения P(x) дискретных случайных величин энтропию определяют, заменой интеграла на соответствующую сумму.
Обратим внимание еще на одну полезную трактовку понятия энтропии физической системы. Энтропия системы H(x) – произведение вероятностей различных состояний системы на логарифм этих состояний, взятая с обратным знаком.
Свойства энтропии:
-
энтропия всегда положительная величина, т.к. вероятности наступления отдельных событий всегда меньше единицы;
-
энтропия источника равна нулю, если вероятность появления одного из событий равна единице (тогда источник не несет информации);
-
источник будет обладать наибольшей энтропией, если его сообщения могут принимать m значений: P1=P2=P3….Pm =1/m
-
максимум энтропии имеет место для системы из двух равновероятных независимых событий.
-
энтропия обладает свойством аддитивности, т.е. когда несколько независимых
Порядок выполнения работы
-
Ввести в компьютер исходные сообщения о состоянии физической системы.
-
Определить меру Хартли и энтропию информационных сообщений.
-
Построить график распределения вероятностей поступления сообщений.
-
Используя в качестве основания логарифмов числа 2, 10 и 2,73, определить меру Хартли дискретных сообщений в битах, дитах и натах.
-
Построить графики для меры Хартли в битах, дитах и натах.
-
Определить количество информации, содержащемся в слове из n букв русского алфавита, если вероятности появления букв одинаковы, а сами буквы независимы друг от друга. Как изменится количество информации при увеличении букв в словах в 2 и 3 раза?
-
Выполнить п.7 для английского алфавита.
-
Оформить отчет и сдать его преподавателю. Исходные данные об информационном сообщении и все результаты расчетов должны быть сведены в таблицы
Контрольные вопросы
-
Дайте определения понятиям: информация, данные, вероятность события, меры измерения информации, мера Хартли, энтропия.
-
На основе анализа графиков распределения вероятностей наступления дискретных сообщений и энтропии объясните полученные результаты.
-
Разъясните, почему наибольшее распространение получила единица измерения меры Хартли в битах, а не в дитах?
-
Разъясните различия в графиках меры Хартли сообщений в зависимости от основания логарифмов.
-
Какой закон распределения вероятностей поступления дискретных сообщений рассмотренный в лабораторной работе. На каком основании это можно утверждать?
-
Для каких дискретных значений информационного сообщения энтропия максимальная. Чем определяется такая закономерность?
-
Для каких дискретных значений информационного сообщения энтропия минимальная. Чем определяется такая закономерность?
Список использованных источников
-
Душин В.К.Теоретические основы информационных процессов и систем: Учебник.-2-е изд. Издательско-торговая корпорация «Дашков и К°»,2006-348 с.
-
Вентцель Е.С. Теория вероятностей. М.: Высшая школа,1969.-576 с.