Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Скачиваний:
63
Добавлен:
13.03.2016
Размер:
301.57 Кб
Скачать

ПОНЯТИЕ ИНФОРМАЦИИ И СООБЩЕНИЯ

Курс Информатика лекция 2

проф. Петрова И.Ю.

Теория информации

Это наука, занимающаяся исследованием процессов возникновения, преобразования и передачи информации математическими методами.

Теорию информации можно разбить на два больших раздела:

собственно теория информации (автор К.Шеннон 1948 г.) - занимается исследованием скорости возникновения информации и передачи ее по каналу связи,

теория кодирования - математическая оценка возможности тех или иных кодов для передачи информации в системах связи с целью увеличения надежности и эффективности передачи.

Основные понятия теории информации: сообщение и информация

Информация передается посредством

конкретного сообщения.

Для одной и той же информации могут

существовать различные сообщения.

Например:

 

It`s raining

Идет дождь

Основные понятия теории информации: сообщение и информация

Сообщения, передающие одну и ту же информацию, образуют класс эквивалентных сообщений.

Одно и то же сообщение может передавать разную информацию.

Количественное определение

информации.

Информацию, содержащуюся в сообщении можно количественно определить по тому насколько она была новой, неожиданной, т.е. ранее неизвестной.

Сколько информации поступает при приеме 1 символа алфавита?

Количественное определение

информации.

Если алфавит состоит только из одной буквы, то вероятность ее появления равна 1 и никакой неожиданности нет.

Все известно заранее и следовательно

информации нет.

Если алфавит состоит из нескольких сим- волов, то появление маловероятного символа является более неожиданным, т.е. будет по- лучено большее количество информации, чем при появлении высоковероятного символа.

Количественное определение

информации.

Пусть имеется источник сообщений, выдающий символы S1, S1 ...Sq. Каждый символ появляется с определенной вероятностью - Pi.

Например : вероятность появления букв русского языка:

Информация обратно пропорциональна вероятности появления символа.

Среднее количество информации, приходящееся на 1 знак определяется формулой Шеннона:

q

 

1

 

 

 

 

н Pi log

 

 

P

i 1

 

i

Н - называют энтропией источника сообщений.

Энтропия измеряет количество неопределенности, неожиданности или информации, содержащееся в некоторой ситуации

Информация обратно пропорциональна вероятности появления символа.

Среднее количество информации, приходящееся на 1 знак определяется формулой Шеннона:

q

 

1

 

 

 

 

н Pi log

 

 

P

i 1

 

i

Н - называют энтропией источника сообщений.

Наиболее удобно использовать как основание логарифма - 2. Это связано с технической реализацией устройств - они имеют 2 устойчивых состояния.

Правило интерпретации

Если сообщение обозначить N, а информацию I , то можно записать:

 

,

т.е. связь между сообщением и информацией осуществляется посредством правила интерпретации - a. N a I

Если мы говорим "Х понимает язык R" - это означает, что Х знает правило интерпретации a для всех сообщений типа R.