- •Информатика как наука и как вид практической деятельности.
- •Место информатики в системе наук, направления развития информатики.
- •Направления развития теоретической информатики.
- •Понятие информации. Свойства информации.
- •7. Информация и данные.
- •Структурные типы данных
- •Теория информации. Основные понятия теории информации.
- •Теория кодирования. Основные понятия теории кодирования.
- •Вероятностный подход к определению количества информации.
- •Понятие энтропии, свойства энтропии. Условная энтропия.
- •Условная энтропия
- •Кодирование и декодирование. Эффективность кодирования.
- •Системы счисления.
- •Кодирование алфавитно-цифровой информации в компьютере.
- •Двоичное кодирование. Прямой, обратный, дополнительный код.
- •Прямой код двоичного числа
- •Обратный код двоичного числа
- •Дополнительный код двоичного числа
- •Кодирование текстовой информации.
- •Кодирование графической информации.
- •Разделимые коды. Префиксные коды. Равномерные коды. Избыточные коды.
- •Формула Хартли. Формула Шеннона.
- •Коды с обнаружением ошибок. Коды с исправлением ошибок. Блочные коды.
- •Оптимальные коды. Метод Хафмана.
- •Кодирование Хаффмана
- •Коды Хемминга. Величины Хемминга.
- •Систематические коды[править | править вики-текст]
- •Самоконтролирующиеся коды[править | править вики-текст]
- •Самокорректирующиеся коды[править | править вики-текст]
- •Теоремы Шеннона.
- •Криптографический подход.
- •Машина Тьюринга.
- •Кодирование по Шеннону-Фано
Теоремы Шеннона.
Теорема Шеннона — Хартли в теории информации — применение теоремы кодирования канала с шумом к архетипичному случаю непрерывного временно́го аналогового канала коммуникаций, искажённого гауссовским шумом. Теорема устанавливает шенноновскую ёмкость канала, верхнюю границу максимального количества безошибочных цифровых данных (то есть, информации), которое может быть передано по такой связи коммуникации с указанной полосой пропускания в присутствии шумового вмешательства, согласно предположению, что мощность сигнала ограничена, и гауссовский шум характеризуется известной мощностью илиспектральной плотностью мощности. Закон назван в честь Клода Шеннона и Ральфа Хартли.
Теоремы Шеннона для канала с шумами[править | править вики-текст]
Основная статья: Теоремы Шеннона для канала с шумами
Теоремы Шеннона для канала с шумами (теоремы Шеннона для передачи по каналу с шумами) связывают пропускную способность канала передачи информации и существование кода, который возможно использовать для передачи информации по каналу с ошибкой, стремящейся к нулю (при увеличении длины блока).
Если скорость передачи сообщений меньше пропускной способности канала связи
то существуют коды и методы декодирования такие, что средняя и максимальная вероятности ошибки декодирования стремятся к нулю, когда длина блока стремится к бесконечности.
Если же
то кода, на основе которого можно добиться сколько угодной малой вероятности возникновения ошибки, не существует.
Теорема Шеннона — Хартли
В данной теореме определено, что достичь максимальной скорости (бит/с) можно путем увеличения полосы пропускания и мощности сигнала и, в то же время, уменьшения шума.
Теорема Шеннона — Хартли ограничивает информационную скорость (бит/с) для заданной полосы пропускания и отношения «сигнал/шум». Для увеличения скорости необходимо увеличить уровень полезного сигнала, по отношению к уровню шума.
Если бы существовала бесконечная полоса пропускания, бесшумовой аналоговый канал, то можно было бы передать неограниченное количество безошибочных данных по ней за единицу времени. Реальные каналы имеют ограниченные размеры и в них всегда присутствует шум.
Удивительно, но не только ограничения полосы пропускания влияют на количество передаваемой информации. Если мы комбинируем шум и ограничения полосы пропускания, мы действительно видим, что есть предел количества информации, которую можно было передать, даже используя многоуровневые методы кодирования. В канале, который рассматривает теорема Шеннона — Хартли, шум и сигнал дополняют друг друга. Таким образом, приёмник воспринимает сигнал, который равен сумме сигналов, кодирующего нужную информацию и непрерывную случайную, которая представляет шум.
Это дополнение создает неуверенность относительно ценности оригинального сигнала. Если приёмник обладает информацией о вероятности ненужного сигнала, который создает шум, то можно восстановить информацию в оригинальном виде, рассматривая все возможные влияния шумового процесса. В случае теоремы Шеннона — Хартли шум, как таковой, произведен гауссовским процессом с некоторыми отклонениями в канале передачи. Такой канал называют совокупным белым гауссовским шумовым каналом, так как гауссовский шум является частью полезного сигнала. «Белый» подразумевает равное количество шума во всех частотах в пределах полосы пропускания канала. Такой шум может возникнуть при воздействии случайных источников энергии, а также быть связан с ошибками, возникшими при кодировании. Зная о вероятности возникновения гауссовского шума, значительно упрощается определение полезного сигнала.
Значение теоремы
Пропускная способность канала и формула Хартли
Сравнивая
пропускную способность канала и формулу
Хартли, мы можем найти эффективное
число
различимых
уровней:
Взятие квадратного корня по сути возвращает отношение мощностей к отношению напряжений, таким образом число уровней приблизительно равно отношению среднеквадратичной амплитуды сигнала к шумовому стандартному отклонению. Это подобие в форме между пропускной способностью по Шеннону и формулой Хартли не стоит понимать буквально, что для безошибочной передачи достаточно уровней сигнала. Избыточное кодирование для устранения ошибок потребует большего числа уровней, но предельная скорость передачи данных, к которой можно приблизиться с кодированием, эквивалентна использованию того самого из формулы Хартли.
