- •1. Алгебраические системы, алгебры, классы алгебр и формальные модели.
- •2. Алгебраические оп-ии и осн св-ва
- •5. Метрическое пространство и его аксиоматика.
- •6. Примеры метрики кодовое расстояние Хемминга
- •7. Линейное пространство и его аксиоматика.
- •8. Линейное нормированное пр-во и аксиоматика.
- •9. Примеры нормы
- •10. Цель и суть любого кодирования.
- •11. Суть помехоустойчивого кодирования избыт информация
- •12. Классификация помехоустойчивых кодов
- •13. Возможные варианты передачи слов.
- •14. Варианты разбиения множества n.
- •15. Понятия минимального Хеммингово расстояния.
- •17 Формула для определения числа избыточ разряд.
- •18. Процедура построения группового кода.
- •20. Временная дискретизация и ее виды
- •21. Представление непрерывного сигнала последовательностью импульсов. Ряд Котельникова.
- •22. Представление сигнала спектром гармоник. Ряд ж. Фурье.
- •23. Цель и суть квантования по уровню; функция ацп.
- •25 Типы (модели) помех. Влияние помех на квантованный по уровню сигнал.
- •27. Цепь управления и процесс воздействия источника на приемник как мн-во; цепи прямой и обратной связи. Определение понятия сообщ-ия; отличие сообщ-ия от инф-ии.
- •28. Виды сообщ-ий в цепи управления; активные и пассивные сообщ-ия.
- •29. Понятие ассоциации сообщ-ий в цепи управления; понятие и виды преобразований сообщ-ий.
- •30. Кодовая ассоциация сообщений. Определение понятия код как преобразования; место кодов в цепи управления; отличие кодов от инф-ии.
- •31 Виды кодов в цепи управления. Примеры.
- •32 Определение оп-ионного и основного кода.
- •33. Ассоциационный код.
- •34. Информационная ассоциация сообщений...
- •35. Понятие информационной цепи
- •36. Виды инф-ии в цепи управления.
- •37. Определение оновной информ отличие от кода.
- •38. Допущение теории информации. Понятие и определение информирования. Виды информирования.
- •39 Транс информироваание.
- •40 Псевдоинформирование.
- •41. Дезинформирование
- •42. Параинформирование
- •43 Три подхода при измерении инф-ии: структурный, статистический, семантический.
- •44 Структурные меры инф-ии; Аддитивная мера р. Хартли.
- •46 Статистическая мера инф-ии количество инф-ии по Шеннону.
- •47. Подсчет описательных информаций
- •48. Подсчет числа идентифицирующих информаций.
46 Статистическая мера инф-ии количество инф-ии по Шеннону.
во многих ситуациях
вероятности состояний источника
неодинаковы и бывают, известны приёмнику
сообщ-ий. И наличие априорной инф-ии,
имеющейся у приемника в виде вероятностей
состояний источника, позволяет изменить
условия выбора, поиска, идентификации
определённого состояния сообщ-ия. Все
отличающиеся сообщ-ия ДБ поранжированы
в порядке убывания частот появления
сообщ-ий. Прога поиска может также
осуществляться методом послед-ого
деления выбранного множества на 2
подмножества с последующим выбором
одного из них. Каждое из 2х подмножеств
надо формировать так , чтобы суммарные
частоты их появления до возМсти были
одинаковы.
=
1 Ji=
log2
1/Pi
= - log2Pi
h(p)
= log2
1/P
= - log2P
функция неожиданности математические
ожидание
где Н - средняя
неожиданность сообщ-ия , J - средняя длина
программы и среднее количество инф-ии
для идентификации отдельного сообщ-ия.
Кол-во инф-ии по шеннону
47. Подсчет описательных информаций
Т. Число инф-ий D ,описывающих 1го сообщ-ие в ИЦ, состоящей из n различных сообщ-ий, равно числу этих сообщ-ий. Док-во основано на обстоятельстве, что для полного описания любого j-го сообщ-ия ИЦ, состоящей из n сообщ-ий, надо связать это сообщ-ие с (n - 1) остальными сообщ-иями этой цепи с пом такого же числа описательных инф-ии и ещё одна - исходная ИНФ-ИЯ - требуется для связи данного сообщ-ия с исходным сообщ-ием, т.о. Dj = n.
Т. Для описания 1го сообщ-ия ИЦ, содержащей основную инфу и состоящей из произвольного числа n сообщ-ий достаточно двух описательных инф-ии, т.е. D1 =D2 = . . . =Dj = . . . = Dn = D = 2 Док-ся тем, что для определения любого сообщ-ия из n сообщ-ий требуется (n - 1) - кратное применение одной и той же осн-ой инф-ии J и применения одной исходной инф-ии J01. Т 3.3. If в ИЦ из n сообщ-ий, имеется m классов, состоящих соответственно из nа, nb, …, nm одинак сообщ-ий, то среднее число описательных инф-ии М определить следующим выражением
г
де
n/ni
– редкость сообщ-ия
д
ок-во:
на каждый класс приходится число
описательных инф-ий равное Di=n/ni
. Среднее число описательных информаций
определяется как ср. геометрическое
средних чисел информаций, описывающих
все сообщ .
преобразуем Ур-ние к виду
Обозначив
где nср
– среднее (геометрическое) число сообщ-ий
1го класса, и подставляя эту величину в
знаменатель, получим D=n/n
cp.
В частном
случае, когда все сообщ-ия ИЦ различны,
т.е. когда каждый класс представлен
всего одним сообщ-ием и m
= n,
из (3. 20) имеем D
= n.
48. Подсчет числа идентифицирующих информаций.
ИЦ состоит из четырёх сообщ-ий: x1, x2, x3, x4, из кот под надо выделять сообщ-ие х2 . По теореме для описания произвольного сообщ-я, этой ИЦ требуются 4 описательные инф-ии, кот связывают данные сообщ-я с исходным сообщ-ем х0. При идентификации исходным сообщ-ем берётся искомое сообщ-ие, его эталон (х0 = x2.) При этом одна из рассмотренных инф-ий будет тривиальной J21 ≠ J0, J22 = J0,J23 ≠ J0,J24 ≠ J0. В худшем случае тривиалная инф-ция мб найдена после 3го вопроса.
Т. Число описательных инф-ий, необходимых для идентификации сообщ-я, однозначно определено только в информационной цепи из двух сообщ-ий; при этом
Н2= 1. Н2 -Число идентифицирующих информаций.
Т.
Число инф-ий, идентифицирующих 1 сообщ-е
в информационной цепи, содержащей n
различных сообщ-ий, мб определено как
двоичный логарифм этого числа сообщ-ий.
Докажем
теорему. Есть
ИЦ из n
сообщ-й, являющаяся половиной инф-й цепи
из 2n
сообщ. Числа инф-ий, описывающих 1о
сообщ-е в этих ИЦ равны:
Dn=
n,
D2n
= 2n,
=> D2n
= 2*Dn
Пусть число инф-ий, идентифицирующих
1о сообщ-ие в ИЦ из n
сообщ-ий, равно Hn.
для идентификации цепи, как составляющей
информационную цепь из 2n
сообщ-ий, необходима одна идентифицирующая
инф-ия. Поэтому общее число инф-ии,
идентифицирующих данное сообщ-ие в
информационной цепи из 2n
сообщ-ий, равно H2n=Hn+1.
прологарифмировав D2n=2*Dn,
получим
На основании сравнения найдена зависимость H=log2D.
Т.
If в ИЦ из n
сообщ-ий имеется m
классов, каждый состоит из na,
nb,…,nm
одинак сообщ-й, то среднее число
идентифицирующих инф-ии
М выразить
соотношением
Докажем: для
идентификации любого сообщ-ия,
принадлежащего классу а,
потребуется меньше идентифицирующих
инф-ии на величину Нna
, т.е.
Среднее количество инф-ии, идентифицирующих отдельное сообщ-ие, М определить средним значением (математическим ожиданием) чисел идентифицирующих инф-ии сообщ-ий всех классов
в компактном виде
получаем
Теорема. Среднее число идентифицирующих информаций равно двоичному логарифму среднего числа описательных инф-ии.
При большом числе
сообщ-ий в информационной цепи, когда
n→
∞, частоты
появления сообщ-ий разных классов М
заменить вероятностями этих сообщ-ийПосле
подстановки (3.34) в (3.20) выражение для
среднего количества описательных инф-ии
примет вид
или
,
где i
- номер
класса сообщ-ия, m
- число классов.
Выражение (3.32) для
среднего количества идентифицирующих
информаций после аналогичной подстановки
преобразуется к виду
