
- •1. Теория информации – дочерняя наука кибернетики.
- •2. Что такое информация. Свойства информации. Этапы обращения информации. Информационные системы. Что такое информация
- •Свойства информации
- •Этапы обращения информации
- •Информационные системы
- •3. Система передачи информации.
- •4. Виды информации
- •5. Задачи и постулаты прикладной теории информации.
- •6. Количественная оценка информации
- •7. Что такое канал связи. Шум в канале связи Канал связи
- •Шум в канале связи
- •8. Кодирование информации. Код. Способы кодирования. Кодирование текстовой, графической, звуковой информации.
- •Кодирование текстовой информации.
- •Кодирование графической информации.
- •Кодирование звуковой информации.
- •9. Принципы хранения, измерения, обработки и передачи информации.
- •10. Информация в материальном мире, информация в живой природе, информация в человеческом обществе, информация в науке, классификация информации. Информация в материальном мире
- •Информация в живой природе
- •Информация в человеческом обществе
- •Информация в науке
- •Классификация информации
- •11. Информатика, история информатики.
- •История информатики
- •12. Измерение количества информации. Подходы к измерению информации.
- •13. Единицы измерения информации, носитель информации
- •14. Передача информации, скорость передачи информации.
- •15. Экспертные системы. Назначение экспертных систем.
- •Назначение экспертных систем
- •16. Классификация экспертных систем.
- •17. Представление знаний в экспертных системах.
- •18. Методы поиска решений в экспертных системах.
- •19. Вероятностный подход к измерению дискретной и непрерывной информации.
- •20. Информация Фишера.
- •21. Теорема отсчетов Котельникова или Найквиста-Шеннона.
- •22. Математическая модель системы передачи информации
- •23. Энтропия. Виды энтропии. Условная энтропия.
- •24. Энтропия. Виды энтропии. Взаимная энтропия.
- •25. Энтропия. Виды энтропии. B-арная энтропия
- •26. Энтропийное кодирование.
- •27. Пропускная способность дискретного канала.
- •28. Интерполяционная формула Уиттекера-Шеннона
- •29. Частота Найквиста.
- •30. Семантика. Семантическая модель.
- •31. Семантика естественных и формальных языков. Семантическая информация.
19. Вероятностный подход к измерению дискретной и непрерывной информации.
См. примечание 6
20. Информация Фишера.
В математической статистике и теории информации информацией Фишера называется дисперсия функции вклада выборки. Эта функция названа в честь описавшего её Рональда Фишера.
21. Теорема отсчетов Котельникова или Найквиста-Шеннона.
Теорема
Котельникова (в
англоязычной— теорема
Найквиста — Шеннона или
теорема отсчётов) гласит,
что, если аналоговый
сигнал
имеет
финитный (ограниченный по ширине) спектр,
то он может быть восстановлен однозначно
и без потерь по своим отсчётам,
взятым с частотой, строго большей
удвоенной верхней частоты
:
Такая трактовка рассматривает идеальный случай, когда сигнал начался бесконечно давно и никогда не закончится, а также не имеет во временно́й характеристике точек разрыва. Именно это подразумевает понятие «спектр, ограниченный частотой ».
Разумеется, реальные сигналы (например, звук на цифровом носителе) не обладают такими свойствами, так как они конечны по времени и обычно имеют разрывы во временно́й характеристике. Соответственно, их спектр бесконечен. В таком случае полное восстановление сигнала невозможно и из теоремы Котельникова вытекают два следствия:
Любой аналоговый сигнал может быть восстановлен с какой угодно точностью по своим дискретным отсчётам, взятым с частотой , где — максимальная частота, которой ограничен спектр реального сигнала.
Если максимальная частота в сигнале превышает половину частоты дискретизации, то способа восстановить сигнал из дискретного в аналоговый без искажений не существует.
Говоря шире, теорема Котельникова утверждает, что непрерывный сигнал можно представить в виде интерполяционного ряда
где
—
функция sinc.
Интервал дискретизации удовлетворяет
ограничениям
Мгновенные
значения данного ряда есть дискретные
отсчёты сигнала
.
22. Математическая модель системы передачи информации
Рассмотрим систему, состоящую из двух подсистем A и B, обменивающихся друг с другом информацией. Каждая из подсистем заинтересована в решении определенных задач и характеризуется функцией P, описывающей результативность решения (экономический эффект, вероятность решения задачи и т. д.) в зависимости от имеющейся у подсистемы информации. В зависимости от вида этой функции подсистема заинтересована в передаче, получении или охране информации от другой подсистемы.
Пусть подсистема A передает информацию подсистеме B. Объем информации, находящийся в распоряжении подсистем, можно разде- лить на: информацию, которая имеется только у подсистемы i (i 2 fA; Bg); обозначим запас такой информации Ki; информацию, переданную подсистеме B; обозначим количество этой информации ––JA; информацию, которая воспринята подсистемой B (обозначим количество такой информации I) –– эта информация является общей для подсистем A и B.
Результативность решения задач подсистемой A зависит от информации, имеющейся в ее распоряжении и переданной информации подсистеме B, однако, эта подсистема не может контролировать восприятие информации подсистемой B. Поэтому целесообразно использовать оценку результативности подсистемой A, так что PA = PA(KA; JA). Для подсистемы B зависимость результативности решения задач PB = PB(KB; I).
В замкнутой системе количества информации KA + JA, KB не изменяются во времени, поэтому по одному аргументу из уравнений состояния можно сократить. Таким образом, уравнения состояния подсистем A, B, можно записать как: (2) PA = PA(JA) PB = PB(I):
Введем также величину SA, представляющую собой потери информации, то есть часть информации, которая была передана подсистемой A, но не воспринята подсистемой B.Математическая модель передачи информации в АОС 3 Изменения величины Pi (i 2 fA; Bg) за счет обмена информацией представляют собой ценность информации: [3]: (3) vA = dPA dJA; vB = dPB dI :
Положительное значение vi i 2 fA; Bg соответствует положительной мотивации i-ой подсистемы к обмену информацией, в случае, когда vi < 0, i-ая подсистема препятствует передаче или приему информации. Поэтому интенсивность потока информации qA(vA; vB) можно представить в простейшем случае как:
(4) qA(vA; vB) = (vA + vB);
где –– размерный коэффициент пропорциональности.
Интенсивность потока информации qA определяет изменение запасов информации у подсистемы A:
(5) dJA dt = dKA dt = qA(vA; vB):
Интенсивность получения информации подсистемой B qB < qA(vA; vB), так как существует доля информации, не воспринимаемая получателем [4].
Эта доля возрастает с увеличением интенсивности информационного потока. При обратимом процессе обмена информацией, когда
qA = 0 вся переданная информация может быть воспринята; в случае, когда qA ! 1, доля воспринимаемой информации стремится к нулю:
(6) qB = p(qA)qA; limqA!0 p(qA) = 1; lim qA!1 p(qA) = 0:
Величина p(qA) может иметь вероятностный смысл, как вероятность того, что элементарное количество информации, отправленной подсистеме B, будет ею воспринято. Одной из возможных функций p(qA) является экспоненциальная: (7) p(qA) = e kqA:
В каждый момент времени значение p показывает эффективность процесса обмена, однако среднее значение p за все время процесса неинформативно. Для определения показателя эффективности информационного обмена запишем баланс для величины SA = JAI:
(8) dSA dt = (1 p(qA))qA = > 0:
Величина _ представляет собой скорость потерь информации за счет
необратимости связанной с восприятием информации. По аналогии
с термодинамическими и экономическими системами эту величину
можно назвать диссипацией информации.