- •1. Теория информации – дочерняя наука кибернетики.
- •2. Что такое информация. Свойства информации. Этапы обращения информации. Информационные системы. Что такое информация
- •Свойства информации
- •Этапы обращения информации
- •Информационные системы
- •3. Система передачи информации.
- •4. Виды информации
- •5. Задачи и постулаты прикладной теории информации.
- •6. Количественная оценка информации
- •7. Что такое канал связи. Шум в канале связи Канал связи
- •Шум в канале связи
- •8. Кодирование информации. Код. Способы кодирования. Кодирование текстовой, графической, звуковой информации.
- •Кодирование текстовой информации.
- •Кодирование графической информации.
- •Кодирование звуковой информации.
- •9. Принципы хранения, измерения, обработки и передачи информации.
- •10. Информация в материальном мире, информация в живой природе, информация в человеческом обществе, информация в науке, классификация информации. Информация в материальном мире
- •Информация в живой природе
- •Информация в человеческом обществе
- •Информация в науке
- •Классификация информации
- •11. Информатика, история информатики.
- •История информатики
- •12. Измерение количества информации. Подходы к измерению информации.
- •13. Единицы измерения информации, носитель информации
- •14. Передача информации, скорость передачи информации.
- •15. Экспертные системы. Назначение экспертных систем.
- •Назначение экспертных систем
- •16. Классификация экспертных систем.
- •17. Представление знаний в экспертных системах.
- •18. Методы поиска решений в экспертных системах.
- •19. Вероятностный подход к измерению дискретной и непрерывной информации.
- •20. Информация Фишера.
- •21. Теорема отсчетов Котельникова или Найквиста-Шеннона.
- •22. Математическая модель системы передачи информации
- •23. Энтропия. Виды энтропии. Условная энтропия.
- •24. Энтропия. Виды энтропии. Взаимная энтропия.
- •25. Энтропия. Виды энтропии. B-арная энтропия
- •26. Энтропийное кодирование.
- •27. Пропускная способность дискретного канала.
- •28. Интерполяционная формула Уиттекера-Шеннона
- •29. Частота Найквиста.
- •30. Семантика. Семантическая модель.
- •31. Семантика естественных и формальных языков. Семантическая информация.
- •32. Формула Шеннона.
- •33. Теория вероятности. Основные понятия.
- •34. Дисперсия случайной величины.
- •35. Теорема Муавра-Лапласа.
- •36. Экстраполятор нулевого порядка. Экстраполятор первого порядка
- •37. Передискретизация. Децимация.
- •38. Закон распределения вероятностей.
- •39. Простейшие алгоритмы сжатия информации
- •40. Методы Лемпела-Зива
- •41. Особенности программ архиваторов.
- •42. Применение алгоритмов кодирования в архиваторах
- •43. Принципы сжатия данных
- •44. Характеристики алгоритмов сжатия и их применимость Коэффициент сжатия
- •Системные требования алгоритмов
- •45. Коэффициент сжатия, допустимость потерь.
- •Допустимость потерь
- •46. Алгоритмы сжатия данных неизвестного формата.
- •47. Помехоустойчивое кодирование.
- •48. Линейные блочные коды.
- •49. Адаптивное арифметическое кодирование.
- •50. Полиномиальные коды.
- •51. Цифровое кодирование, аналоговое кодирование,
- •52. Дельта-кодирование.
- •53. Таблично-символьное кодирование
- •54. Числовое кодирование.
- •55. Сетевое кодирование
- •56. Кодирование Хаффмена.
- •57. Кодирование и декодирование информации
- •58. Понятие криптографии. Различные методы криптографии
- •59. Методы шифрования.
- •60. Криптография с симметричным ключом, с открытым ключом.
- •61. Криптоанализ, управление ключами.
- •62.Криптографические протоколы, Криптографические примитивы
- •Примечания:
Кодирование звуковой информации.
Из курса физики Вам должно быть известно, что звук представляет собой волну с непрерывно меняющейся амплитудой и частотой. Чем больше амплитуда, тем звук громче. Чем выше частота колебаний, тем выше тон (частота колебаний измеряется в герцах (штук в секунду). Человеческое ухо способно улавливать колебания от 20 Гц до 20 кГц. На рисунке ниже в виде зависимости амплитуды от времени показан фрагмент звуковой волны:
Чтобы компьютер мог работать со звуком, непрерывный звуковой сигнал должен быть представлен в двоичной форме, для этого выполняют временную дискретизацию звука:
Весь интервал изменения амплитуды разбивают на уровни громкости, а всё время звучания на одинаковые временные интервалы. Количество возможных уровней громкости можно рассматривать, как набор вероятных состояний в каждый временной интервал. Тогда, определить количество информации в звуке можно по формуле:
V = k * i , где V – количество информации в звуке; k – количество временных интервалов, а
i – глубина звука (т.е. количество бит - 16, 32 или 64, выделенных на кодирование уровня громкости на одном интервале), определяемая по формуле: 2i ≥ N, где N – количество уровней громкости. Таким образом, любой звук может быть представлен последовательностью нулей и единиц. т.е. двоичным кодом. Качество звука тем выше, чем больше глубина звука и частота дискретизации (т.е. количество «ступеней» в секунду). Исходная формула может быть преобразована следующим образом:
V = t * ν * I , где V – количество информации в звуке; t – время звучания, ν – частота дискретизации, а i – глубина звука.
Преобразование звука в двоичный код выполняет специальное устройство - аналого-цифровой преобразователь. Частота дискретизации варьируется от 8 кГц до 48 кГц (нижний предел соответствует качеству радиотрансляции, верхний - качеству звучания музыкальных носителей). В виде двоичного кода записанный звук хранится в памяти компьютера. Для воспроизведения звука потребуется его обратное преобразование из двоичного кода в звуковую волну с помощью цифро-аналогового преобразователя.
В настоящее время существует несколько форматов звуковых файлов. Так формат *.WAV использует способ кодирования, описанный выше. Другие форматы могут основываться на использовании библиотек, содержащих образцы звуков, что обеспечивает более высокое качество звучания. Широкое распространение в последнее время получил формат *.MP3, обеспечивающий высокое качество при сравнительно небольших размерах файла.
9. Принципы хранения, измерения, обработки и передачи информации.
Для хранения информации используются специальные устройства памяти. Дискретную информацию хранить гораздо проще непрерывной, т.к. она описывается последовательностью чисел. Если представить каждое число в двоичной системе счисления, то дискретная информация предстанет в виде последовательностей нулей и единиц. Присутствие или отсутствие какого-либо признака в некотором устройстве может описывать некоторую цифру в какой-нибудь из этих последовательностей. Например, позиция на дискете описывает место цифры, а полярность намагниченности - ее значение. Для записи дискретной информации можно использовать ряд переключателей, перфокарты, перфоленты, различные виды магнитных и лазерных дисков, электронные триггеры и т.п. Одна позиция для двоичной цифры в описании дискретной информации называется битом (bit, binary digit). Бит служит для измерения информации. Информация размером в один бит содержится в ответе на вопрос, требующий ответа "да" или "нет". Непрерывную информацию тоже измеряют в битах.
Бит - это очень маленькая единица, поэтому часто используется величина в 8 раз большая - байт (byte), состоящая из двух 4-битных полубайт или тетрад. Байт обычно обозначают заглавной буквой B или Б. Как и для прочих стандартных единиц измерения для бита и байта существуют производные от них единицы, образуемые при помощи приставок кило (K), мега (M), гига (G или Г), тера (T), пета (P или П) и других. Но для битов и байтов они означают не степени 10, а степени двойки: кило - 210=1024 ≈103, мега - 220≈106, гига - 230≈109, тера - 240≈1012, пета - 250≈1015. Например, 1KB = 8Кbit = 1024B = 8192bit, 1МБ = 1024КБ = 1048576Б = 8192Кбит.
Для обработки информации используют вычислительные машины, которые бывают двух видов: ЦВМ (цифровая вычислительная машина) - для обработки дискретной информации, АВМ (аналоговая вычислительная машина) - для обработки непрерывной информации. ЦВМ - универсальны, на них можно решать любые вычислительные задачи с любой точностью, но с ростом точности скорость их работы уменьшается. ЦВМ - это обычные компьютеры.
Каждая
АВМ предназначена только для узкого
класса задач, например, интегрирования
или дифференцирования. Если на вход
такой АВМ подать сигнал, описываемый
функцией
,
то на ее выходе появится сигнал
или
.
АВМ работают очень быстро, но их точность
ограничена и не может быть увеличена
без аппаратных переделок. Программа
для АВМ -
это электрическая схема из заданного
набора электронных компонент, которую
нужно физически собрать.
Бывают еще и гибридные вычислительные машины, сочетающие в себе элементы как ЦВМ, так и АВМ.
На рис.1.2 изображена схема передачи информации.
Кодированием является шифровка сообщения, декодированием - его дешифровка.
Процедуры кодирования и декодирования могут повторяться много раз. Ошибки при передаче информации происходят из-за шума в канале (атмосферные и технические помехи), а также при кодировании и декодировании. Теория информации изучает, в частности, способы минимизации количества таких ошибок.
Рис.1.2.
Скорость передачи информации измеряется в количестве переданных за одну секунду бит или в бодах (baud): 1бод = 1бит/сек (bps). Производные единицы для бода такие же как и для бита и байта, например, 10Kbaud = 10240baud.
Информацию можно передавать последовательно, т.е. бит за битом, и параллельно, т.е. группами фиксированного количества бит. Параллельный способ быстрее, но он часто технически сложнее и дороже особенно при передаче данных на большие расстояния. Параллельный способ передачи используют, как правило, только на расстоянии не более 5 метров.
