Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
PTI_-_vsyo.docx
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
710.74 Кб
Скачать

5. Вероятностное определение количества информации по Шеннону

5. Количественная оценка информации.

До получения информации об объекте у наблюдателя существует полная неопределенность о нем. По мере получения информации неопределенность уменьшается.

Количество информации – это мера уменьшения неопределенности об объекте в результате получения сведений о нем.

Подходы к измерению количества информации:

  1. Комбинаторное определение количества информации по Хартли.

Объект может принимать любое состояние. Все возможные состояния – алфавит. Нам известен mx – объем алфавита.

Предположение Хартли:

- если источник имеет одно единственное состояние, то его появление принесет количество информации равное нулю.

I(1)=0

- количество информации должно быть монотонно возрастающей функцией от количества состояний источника.

m1 > m2 => I(m1) > I(m2) – аддитивность количества информации.

x ->mx

y ->my

I(mx * my)=I(mx)+I(my)

I= loga mx

а –единица измерения количества информации.

a=2 I[бит] 1бит = log22 (1 состояние из 2х возможных)

a=e I[нит]

a=10 I[дит, Хартли]

  1. Вероятностное определение количества информации по Шеннону.

Определение Хартли не учитывало фактор неожиданности появления конкретного состояния источника.

- I(xi) = f(p(xi))-ф-ия вероятности появления события

- если неопределенность открывается по этапам, то она должна быть равна взвешенной сумме неопределенностей, устраняемых на каждом этапе.

I(xi) = - log1p(xi) количество собственной информации xi

Свойства:

1. I(xi) ≥0

2. I(xi) = - loga(1\mx) = loga mx – когда не учитывается степень возможности.

3. Свойство аддитивности

p(xi) * p(yi) = p(xi*yi)

- log p(xi*yi) = -log p(xi) – log p(yi)

I(xi*yi) = I(xi)+I(yi)

p(a2) = (1-p1)*p2 ;p2 – условная вероятность.

p(a2) = p(b)*p(a2/b)

- количество информации содержащейся в сообщении не должно зависеть от смыслового содержания сообщения.

3. Алгоритмическое определение количества информации по Колмогорову: В качестве количества информации используется минимальная длина программы, которая позволяет описать свойства источника информации.

6. Случайный процесс, как модель источника сообщений.

При изучении источников, как правило, отвлекаются от их природы, заменяя их моделями. Модель – способ описания объекта, отражающий существенный с точки зрения решаемой задачи факторы. Случайная величина – величина, которая в результате опытов принимает одно из возможных значений, причем заранее неизвестно, какое.

На практике интересуются не отдельными состояниями, а непрерывными либо дискретными последовательностями этих состояний, реализуемых источниками за определенный промежуток времени.

Случайный процесс – случ. Функция времени, которая в результате опыта может принять тот или иной вид, причем заранее неизвестно, какой.

Конкретный вид Случ функции наз реализацией случ процесса.

X (t)-случайный процесс

1(t), x2(t)…-ансамбль реализаций

Классификация (критерии):

1) Пространство состояний – определяет диапазон возможных значений случ. проц.

2) Временные параметры –как измененяется сл. вел. во времени.

3) Статистические зависимости между сл. вел. в различные моменты времени.

Классификация по 1, 2 критериям: дискретная, непрерывная, комбинированная.

-Непрерывная случ. последовательность – непрерывна по значениям, дискретна по времени.

-Дискретный случайный процесс.

-Дискретная случ. последовательность – дискретны время и значения.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]