Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Uchit_Yuronen.docx
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
1.36 Mб
Скачать

Представление цифровых изображений.

D(x,y), D – как правило целое число, это значение серого.

Если несколько каналов в данных, то появится несколько матриц. D(x,y,k).

Алгоритмы сжатия.

Под простым термином сжатие понимают сжатие без потерь (Lossless Compression).

Сжатие с потерями (Loss Compression) делятся на два процесса:

  1. Выделение сохраняемой части информации с помощью модели, и она зависит от цели сжатия, особенности источника и приемника информации

  2. Сжатие без потерь

Эффективность сжатия – учитывает не только степень сжатия информации (отношение длины сжатых к несжатым) и скорость сжатия и разжатая данных.

Коэффициент сжатия - обратная величина к степени сжатия (длина сжатых данных к несжатым).

Объем памяти, необходимый для сжатия или разжатия.

Методы сжатия без потерь.

В основе метода сжатия заложен принцип, что можно заменить часто повторяющиеся куски короткими кодами, а редко – длинными. Такая форма представления обеспечит наименьший размер. Точную взаимосвязь между вероятностями и кодами устанавливает теорема Шеннона.

Элемент , вероятность появления которого равняется , выгодней всего представить как , при условии, если при кодировании размер кодов всегда в точности получается равным этому количеству битов. Следовательно, длинна закодированной последовательности будет минимальной для всех возможных способов кодирования. Случай если распределение вероятностей постоянно и вероятность появления элементов кодов не зависимы, то можно найти среднюю длину кодов как средне взвешенную: , это значение так же называется энтропией распределения вероятностей F. Как правило, P является условной, следовательно, при кодировании элемента распределение вероятностей F принимает 1 из значений , следовательно, источник находится k, которому соответствует набор вероятностей генерации всех возможных элементов . Средняя длина кодов

Классический алгоритм Хаффмана.

Он использует только частоту появления одинаковых байт во входном блоке данных и сопоставляет символам входного потока, который встречается чаще, цепочку битов меньшей длины, и для цепочки битов встречающихся редко – большей длины. Для сбора статистики алгоритм требует двух проходов по входному блоку. Сейчас существуют алгоритмы с одним проходом – адоптивные.

Классический алгоритм требует помещения в файл со сжатыми данными таблицы соответствия кодируемых символов и цепочек.

Характеристики алгоритма.

- степень сжатия (лучший, средний, худший);

- симметричность по времени (пропорции архивации и разархивации).

- характерные особенности: это один из алгоритмов, который не увеличивает размер исходных данных в лучшем случае.

Арифметическое сжатие

В основе алгоритма положена идея: кодированный сигнал представляется в виде дроби, их стараемся строить таким образом, чтобы сигнал был наиболее компактным.

Эта таблица известна компрессору и декомпрессору, таким образом, кодирование будет заключаться в уменьшении рабочего интервала.

Характеристики арифметического алгоритма

-лучшая (больше 8) и худшая (1) степень сжатия;

-обеспечивает лучшую степень сжатия относительно алгоритма Хаффмана, на однотипных данных от 1 до 10% он эффективней. Также как и алгоритм Хаффмана в лучшем случае не увеличивается размер исходных данных.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]