- •1. Теория информации – дочерняя наука кибернетики.
- •2. Что такое информация. Свойства информации. Этапы обращения информации. Информационные системы. Что такое информация
- •Свойства информации
- •Этапы обращения информации
- •Информационные системы
- •3. Система передачи информации.
- •4. Виды информации
- •5. Задачи и постулаты прикладной теории информации.
- •6. Количественная оценка информации
- •7. Что такое канал связи. Шум в канале связи Канал связи
- •Шум в канале связи
- •8. Кодирование информации. Код. Способы кодирования. Кодирование текстовой, графической, звуковой информации.
- •Кодирование текстовой информации.
- •Кодирование графической информации.
- •Кодирование звуковой информации.
- •9. Принципы хранения, измерения, обработки и передачи информации.
- •10. Информация в материальном мире, информация в живой природе, информация в человеческом обществе, информация в науке, классификация информации. Информация в материальном мире
- •Информация в живой природе
- •Информация в человеческом обществе
- •Информация в науке
- •Классификация информации
- •11. Информатика, история информатики.
- •История информатики
- •12. Измерение количества информации. Подходы к измерению информации.
- •13. Единицы измерения информации, носитель информации
- •14. Передача информации, скорость передачи информации.
- •15. Экспертные системы. Назначение экспертных систем.
- •Назначение экспертных систем
- •16. Классификация экспертных систем.
- •17. Представление знаний в экспертных системах.
- •18. Методы поиска решений в экспертных системах.
- •19. Вероятностный подход к измерению дискретной и непрерывной информации.
- •20. Информация Фишера.
- •21. Теорема отсчетов Котельникова или Найквиста-Шеннона.
- •22. Математическая модель системы передачи информации
- •23. Энтропия. Виды энтропии. Условная энтропия.
- •24. Энтропия. Виды энтропии. Взаимная энтропия.
- •25. Энтропия. Виды энтропии. B-арная энтропия
- •26. Энтропийное кодирование.
- •27. Пропускная способность дискретного канала.
- •28. Интерполяционная формула Уиттекера-Шеннона
- •29. Частота Найквиста.
- •30. Семантика. Семантическая модель.
- •31. Семантика естественных и формальных языков. Семантическая информация.
- •32. Формула Шеннона.
- •33. Теория вероятности. Основные понятия.
- •34. Дисперсия случайной величины.
- •35. Теорема Муавра-Лапласа.
- •36. Экстраполятор нулевого порядка. Экстраполятор первого порядка
- •37. Передискретизация. Децимация.
- •38. Закон распределения вероятностей.
- •39. Простейшие алгоритмы сжатия информации
- •40. Методы Лемпела-Зива
- •41. Особенности программ архиваторов.
- •42. Применение алгоритмов кодирования в архиваторах
- •43. Принципы сжатия данных
- •44. Характеристики алгоритмов сжатия и их применимость Коэффициент сжатия
- •Системные требования алгоритмов
- •45. Коэффициент сжатия, допустимость потерь.
- •Допустимость потерь
- •46. Алгоритмы сжатия данных неизвестного формата.
- •47. Помехоустойчивое кодирование.
- •48. Линейные блочные коды.
- •49. Адаптивное арифметическое кодирование.
- •50. Полиномиальные коды.
- •51. Цифровое кодирование, аналоговое кодирование,
- •52. Дельта-кодирование.
- •53. Таблично-символьное кодирование
- •54. Числовое кодирование.
- •55. Сетевое кодирование
- •56. Кодирование Хаффмена.
- •57. Кодирование и декодирование информации
- •58. Понятие криптографии. Различные методы криптографии
- •59. Методы шифрования.
- •60. Криптография с симметричным ключом, с открытым ключом.
- •61. Криптоанализ, управление ключами.
- •62.Криптографические протоколы, Криптографические примитивы
- •Примечания:
20. Информация Фишера.
В математической статистике и теории информации информацией Фишера называется дисперсия функции вклада выборки. Эта функция названа в честь описавшего её Рональда Фишера.
Фишеровским количеством информации, содержащемся в одном наблюдении называют:
.
21. Теорема отсчетов Котельникова или Найквиста-Шеннона.
Теорема
Котельникова (в
англоязычной— теорема
Найквиста — Шеннона или
теорема отсчётов) гласит,
что, если аналоговый
сигнал
имеет
финитный (ограниченный по ширине) спектр,
то он может быть восстановлен однозначно
и без потерь по своим отсчётам,
взятым с частотой, строго большей
удвоенной верхней частоты
:
Такая трактовка рассматривает идеальный случай, когда сигнал начался бесконечно давно и никогда не закончится, а также не имеет во временно́й характеристике точек разрыва. Именно это подразумевает понятие «спектр, ограниченный частотой ».
Разумеется, реальные сигналы (например, звук на цифровом носителе) не обладают такими свойствами, так как они конечны по времени и обычно имеют разрывы во временно́й характеристике. Соответственно, их спектр бесконечен. В таком случае полное восстановление сигнала невозможно и из теоремы Котельникова вытекают два следствия:
Любой аналоговый сигнал может быть восстановлен с какой угодно точностью по своим дискретным отсчётам, взятым с частотой , где — максимальная частота, которой ограничен спектр реального сигнала.
Если максимальная частота в сигнале превышает половину частоты дискретизации, то способа восстановить сигнал из дискретного в аналоговый без искажений не существует.
Говоря шире, теорема Котельникова утверждает, что непрерывный сигнал можно представить в виде интерполяционного ряда
где
—
функция sinc.
Интервал дискретизации удовлетворяет
ограничениям
Мгновенные
значения данного ряда есть дискретные
отсчёты сигнала
.
22. Математическая модель системы передачи информации
http://upis.botik.ru/upload/834c1135d3b22e2d866e683b1d4121ad.pdf
23. Энтропия. Виды энтропии. Условная энтропия.
Энтропия – поворот, превращение.
Энтропия в теории информации – мера хаотичности информации, неопределенность появления какого-либо символа первично заданного алфавита.
Если следование символов алфавита не независимо (например, во французском языке после буквы «q» почти всегда следует «u», а после слова «передовик» в советских газетах обычно следовало слово «производства» или «труда»), количество информации, которую несёт последовательность таких символов (а, следовательно, и энтропия), очевидно, меньше. Для учёта таких фактов используется условная энтропия.
Условной энтропией первого порядка (аналогично для Марковской модели первого порядка) называется энтропия для алфавита, где известнывероятности появления одной буквы после другой (то есть, вероятности двухбуквенных сочетаний):
где
—
это состояние, зависящее от предшествующего
символа, и
—
это вероятность
при
условии, что
был
предыдущим символом.
Например, для
русского языка без буквы «ё»
[3].
Через частную
и общую условные энтропии полностью
описываются информационные потери
при передаче
данных в канале с
помехами. Для этого применяются
так называемые канальные матрицы.
Для описания потерь со стороны источника
(то есть известен посланный сигнал)
рассматривают условную
вероятность
получения
приёмником символа
при
условии, что был отправлен символ
.
При этом канальная матрица имеет
следующий вид:
-
…
…
…
…
…
…
…
…
…
…
…
…
…
…
…
…
…
…
…
…
…
…
…
…
Очевидно,
вероятности, расположенные по диагонали,
описывают вероятность правильного
приёма, а сумма всех элементов столбца
даёт вероятность появления соответствующего
символа на стороне приёмника —
.
Потери, приходящиеся на передаваемый
сигнал
,
описываются через частную условную
энтропию:
Для вычисления потерь при передаче всех сигналов используется общая условная энтропия:
означает
энтропию со стороны источника, аналогично
рассматривается
—
энтропия со стороны приёмника:
вместо
всюду
указывается
(суммируя
элементы строки можно получить
,
а элементы диагонали означают вероятность
того, что был отправлен именно тот
символ, который получен, то есть
вероятность правильной передачи).
