- •Начальный этап ит (разработка ит)
- •Структура и компоненты ит
- •Информационная база автоматизированных систем.
- •Сигналы и знаки.
- •СимволыСигнал
- •Теория сигналов. Статистика. Теория формаций.
- •Теорема Шеннона для дискретного канала без шума
- •Статистическое (эффективное) кодирование
- •Пропускная способность дискретного канала с шумом
- •Основная теорема Шеннона для дискретного канала с шумом
- •Основные виды преобразования информации. К основным видам преобразования относятся:
- •Предметные и проблемные области автоматиз Системы
- •Основные свойства энтропии.
- •Cреднее количество взаимной информации. (дискретный случай)
- •Основы (элементы) статистической теории информации. Количественная мера информации. Количество информации при конечном числе равновозможных исходов.
- •Количество информации как случайная величина. Энтропия.
- •Основные свойства энтропии
- •Основные свойства среднего количества в заемной информации:
- •Информационные характеристики
- •Источников дискретных сообщений.
- •Понятие эргодического источника
- •Дискретных сообщений.
- •Энтропия эргодического источника дискретных сообщений.
- •Понятие скорости передачи и пропускной способности канала
- •Основы информационных процессов. Восприятие информации. Процесс восприятия информации и его особенности.
- •Обобщенная схема процесса восприятия информации
- •Построение таблицы декодирования в групповых систематических кодах.
- •Обработка информации.
- •Представление, накопление и хранение информации.
Cреднее количество взаимной информации. (дискретный случай)
Формальная постановка:
Пусть ансамбль X=x1…xi…xn описывает интересующее нас событие
p(x1)…p(xi)…p(xn)
Х – ненаблюдаемая случайная величина и пусть ансамбль Y=y1…yi…yn
p(y1)…p(yi)…p(yn)
характеризует опыты, по которым мы судим о том, какое событие Х имело место. Нас интересует, какое количество информации в среднем (математическое ожидание) содержится в Y относительно Х.
I(YX)=?
I(yj xi )= log2pc(xi)/ p(xi)
pc(xi)= p(xi /yj)
p('e')=0.1
p('e '/ 'e')=0.0001
I(yj xi )=M{ I(yj xi )}= p(xi ,yj)*log2 p(xi /yj)/ p(xi).
Лекция 9

Направления:Меры информации:
С
ИТ
интаксические
- Хартли, Шеннона, Кульбаза
Семантические - Карнала, Бар-Хиллела, Кемени, Войшвилло, Шрейдера
Прагматические - Харкевича, Бонгарда, Стратоковича
На базе Шенноновской меры была разработаны классическая или статистическая (Шенноновская) теория информации. Попытки создать информационную теорию как некоторую мета–теорию успехом не увенчались. Огромную роль в развитии ряда прикладных и теоретических дисциплин оказала Шенноновская теория.
Основы (элементы) статистической теории информации. Количественная мера информации. Количество информации при конечном числе равновозможных исходов.
Монета

Игральная кость

Имеется деталь l=125
25
мм.n=51,p
Выполнено измерение l=125±5 мм.n=11
Найти размер детали с точностью до 1мм.
Какое количество информации мы получили в результате опыта I-?
(бит)
k=1 (так полагают)
a=2 (двоичная система информации - бит)
a=e(натуральная единица)
(бит)
Таким образом получение одной двоичной единицы информации соответствует тому, что мы узнаем какое из двух равновероятных событий имело место, или какаяиз двух равновероятных гипотез справедлива.
(бит)
(бит)
n
![]()
![]()

![]()
(бит) Формула Хартли (1928г.)
Количество информации как случайная величина. Энтропия.
Ряд распределения

- среднее математическое ожидание
![]()
- количество информации
Дискретную случайную величину называют ансамблем.

Энтропия в
(бит/опыт)
Энтропия характеризует среднюю неопределенность случайной величины или среднее количество информации, получаемой в одном опыте.
Пример:
Определить энтропию следующего ансамбля:
![]()
![]()
Основные свойства энтропии
Энтропия одномерной случайной величины (одномерного дискретного ансамбля) Х – величина неотрицательная.
![]()
,
тогда и только тогда, если все вероятности
ансамбля, за исключением одного равны
нулю, а эта единственная равна единице.
В остальных случаях
![]()
![]()
![]()
![]()
![]()
Энтропия ансамбля Х максимальная
,
где
n– число событий данного ансамбля только в том случае, если
(т.е. если события равновесны)
Двумерная случайная величина

![]()
Энтропия источника в установившемся состоянии определяется по следующей формуле:
![]()
Пример1.
![]()
![]()
Пример 2.
![]()
![]()
17.04.03
Вспомним:
Х1,…….,
Хn
наблюдаемая
X=
p(x1),…...,
p(xn)
случайная
величина
(температура)
Y1,…….,Yn
(показывает
Y=
p(y1),…...,
p(yn)
градусник)


I
Y
X
?
Опыт Y перераспределяет (изменяет) α


I Yj
Xi
=log2
pc(αi)
∕ p(αi)
Pc(α i) – апостериорная вероятность.
Теория вероятности имеет дело не со случайностями, а с закономерностями.


I
Y
X = ∑∑ p (αi
∕ yi)
log2
[p(αi
∕ yi)
∕ p(αi)]
Если воспользоваться свойством log и провести ряд элементарных преобразований, то нетрудно получить, что



I
Y
X
= H
X - H X/Y (*)
(см. выкладку 4-ого свойства энтропии)
где H (α)=-∑p(αi) log2 p(αi)
(энтропия ансамбля α)
а H (α∕y)=-∑p(yj) ∑p(αi, yj) log2 p(αi ∕ yj)
(условная энтропия ансамбля α )
Если помех нет, то

I
Y
X
= H
(α)
при чем

H X/Y = 0

H X/Y характеризует остаточную неопределенность
Получим фундаментальное соотношение теории информации:

I
Y
X =
=∑∑ p(αi, yj)log2 [p(αi ∕ yj) ∕ p(αi) (p(yj)∕ p(yj))]=
= p(αi, yj) = ∑∑ p(αi, yj) log2 [p(αi, yj) ∕ p(αi) p(yj)]


I
Y
X = ∑∑ p(αi,
yj)
log2
[p(αi,
yj)
∕ p(αi)
p(yj)]
(фундаментальное соотношение теории информации)
Если преобразовать это выражение, то




I
Y
X = H X + H Y - H X,Y (**)
Получим еще одно соотношение:
p(α i, yj )= p(α i) p(yj ∕α i)
з
начит

I
Y
X = ∑∑ p(αi,
yj)
log2
[p(yj
∕ α
i)∕
p(yj)]
Если выполнить преобразования, аналогичные формулам (*) и (**), то получим следующее:



I
Y
X = H Y - H Y/X



I
Y
X =
I
X
Y

I
Y
X (***)
Наиболее удобна формула




I
Y
X = H X + H Y - H X,Y (**)
