- •I. Видеокомпрессия.
- •2. Избыточность телевизионных изображений.
- •3. 3. 00000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000Внутрикадровое кодирование.
- •3.1 Дискретное косинусное преобразование.
- •3.2 Квантование.
- •3.4 Режимы работы системы видеокомпрессии.
- •4. Межкадровое кодирование.
- •4.1 Дифференциальная импульсно-кодовая модуляция.
- •4.2 Компенсация движения.
- •5. Группы изображений.
- •6. Стандарт компрессии jpeg.
- •7. Видеокомпрессия на базе Wavelet-преобразования.
- •8. Искажения и артефакты видеокомпрессии
- •II. Шш 0000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000mpeg-2.
- •1. Немного истории.
- •2. Структура элементарного потока видеоданных. Элементы потока.
- •3. Принципы видеокомпрессии.
- •4. Режимы кодера.
- •5. Профили и уровни mpeg-2.
- •6. Потоки.
- •6.1 Пакетный элементарный поток.
- •6.2 Программный поток.
- •6.3 Транспортный поток.
- •6.4 Транспортный пакет.
- •7. Иерархическая идентификация программ.
- •8. Синхронизация.
- •8.1 Принцип постоянной задержки.
- •8.2 Подстройка системных часов
- •8.3 Время декодировать и время предъявлять.
- •9. Коммутация потоков и монтаж.
- •9.1 Перемаркирование кадров в области монтажного перехода
- •9.2 Перекодирование кадров в области монтажного перехода.
- •9.3 Монтаж с перекодированием и транскодированием: новый виток.
- •9.4 Склейка потоков.
- •9.5 Монтажные магнитофоны mpeg.
- •9.6 Проблемы.
- •9.7 Возможности mpeg.
- •10. Буфер, бесшовная склейка и стандартизация.
- •11. Mpeg в телевидении будущего.
- •III. Литература.
- •В.Н.Левченко "Спутниковое телевидение". Cd «it-специалист»
Московский Государственный Институт Электронной Техники
(МГИЭТ)
Кафедра
«Телекоммуникационные Системы»
Курсовой проект по предмету
«Цифровая Обработка Сигналов»
«Видеокомпрессия.
Стандарт MPEG-2»
Выполнил:
студент гр. ИМЭ 36
Истомин Е.С.
Преподаватель:
Корнеева М.В.
Москва, 2004.
План.
I. Видеокомпрессия.
1. Принципы компрессии данных
2. Избыточность телевизионных изображений
3. Внутрикадровое кодирование
3.1 Дискретное косинусное преобразование
3.2 Квантование
3.3 Кодирование с переменной длиной слова (энтропийное кодирование)
3.4 Режимы работы системы видеокомпрессии
4. Межкадровое кодирование
4.1 Дифференциальная импульсно- кодовая модуляция
4.2 Компенсация движения
5. Группы изображений
6. Стандарт компрессии JPEG
7. Видеокомпрессия на базе Wavelet-преобразования
8. Искажения и артефакты видеокомпрессии
II. MPEG 2.
1. История
2. Структура и элементы потока видеоданных
3. Принципы видеокомпрессии
4. Режимы кодера
5. Профили и уровни MPEG-2
6. Потоки данных в MPEG-2
6.1 Пакетный элементарный поток
6.2 Программный поток
6.3 Транспортный поток
6.4 Транспортный пакет
7. Иерархическая идентификация программ
8. Синхронизация
8.1 Принцип постоянной задержки
8.2 Подстройка системных часов
8.3 Время декодировать и время предъявлять
9. Коммутация потоков и монтаж
9.1 Перемаркирование кадров в области монтажного перехода
9.2 Перекодирование кадров в области монтажного перехода
9.3 Монтаж с перекодированием и
транскодированием
9.4 Склейка потоков
9.5 Монтажные магнитофоны MPEG
9.6 Проблемы
9.7 Возможности MPEG
10. Буфер, бесшовная склейка и стандартизация
11. MPEG в телевидении будущего
III. Литература
I.
I.
1. Принципы компрессии данных.
Функциональные возможности цифровой техники расширяются многократно в сравнении с аналоговой. Но скорости передачи данных в цифровых потоках велики: 177Мбит/с (4fsc, PAL), 270 Мбит/с (4:2:2), 540 Мбит/с (4:4:4:4). И это рождает много проблем при передаче видеоданных по каналам связи и при записи. Цель видеокомпрессии - более компактное представление изображений.
Первичные идеи и понятия компрессии данных легко пояснить на примере телеграфных сообщений. Если вместо буквы ё передавать е, а вместо ъ - ь, что обычно не приводит к недоразумениям, а также ввести знак пробела для указания на промежуток между словами, то получится алфавит из 32 букв, или символов (обозначим число букв алфавита как M). Каждую букву можно закодировать комбинацией из 5 двоичных знаков, т.к. log2 32=5. Сообщение из N букв потребует 5*N двоичных знаков. Однако это сообщение принесет 5*N двоичных единиц информации (битов) только в том случае, если все буквы алфавита в сообщениях равновероятны и независимы. Количество информации, переносимое одной буквой сообщения, в этом случае будет равно 5 битам
Средняя информация на один символ сообщения называется в теории информации энтропией H. Если символы в сообщениях независимы, энтропия рассчитывается как H= е (-pm*log2pm), где pm - вероятность появления в сообщении буквы с номером m, а суммирование ведется по всем символам алфавита. Как видно, энтропия определяется статистическими свойствами источника сообщений. В случае равновероятности и независимости букв энтропия H0=log2M=log232=5 бит/буква. Но в сообщениях на русском языке, как и на любом другом, буквы появляются с разной вероятностью. Чаще всего встречаются буквы о и е, реже всего - э и ф. Энтропия, рассчитанная с учетом разной вероятности появления букв, дает величину H1=4,1 бит/буква. Но это означает, что описание каждой буквы 5 двоичными разрядами является избыточным. Сообщение из N букв может переносить потенциально 5*N=H0*N бит информации, а при энтропии H1 источника в сообщении фактически содержится 4,1*N бит информации. Для сокращения объема сообщения (компрессии, или сжатия) можно использовать коды типа кода Морзе, которые часто встречающимся символам (буквам) ставят в соответствие короткие кодовые комбинации, а редко встречающимся - длинные. Такое кодирование, учитывающее статистические свойства символов алфавита и позволяющее представить сообщение с меньшим расходом знаков, часто называют энтропийным.
В
современной технике связи широко
применяется один из таких способов
экономного представления -код
Хаффмана.
При кодировании символов сообщения
комбинациями переменной длины возникает
также проблема отделения одной комбинации
от другой. Код Хаффмана обладает свойством
префиксности,
т.е. ни одна его кодовая комбинация не
является началом другой комбинации,
что позволяет обойтись в тексте
кодированного сообщения без разделителей
между комбинациями. Применение кода
Хаффмана позволяет сократить длину
сообщения с 5*N
двоичных знаков (при равномерном двоичном
кодировании) практически до H1*N=4,1*N
двоичных знаков. Теперь для кодирования
одной буквы будет в среднем расходоваться
4,1 двоичных знаков, и длина сообщения
сократится.
Проиллюстрируем
сказанное на несколько шутливом примере
кодирования текстов начальной части
букваря, в которой используется лишь 6
букв (рис.1).
Для равномерного кодирования этих букв
и символа пробела надо использовать
комбинации из трех двоичных знаков. В
этом случае для к
одирования
фразы из 16 символов (букв и пробелов)
потребуется 48 двоичных знаков. Но
расходование 3 двоичных знаков на букву
не означает, что каждая двоичная
комбинация переносит 3 бита информации.
Если считать фразу "мама мыла раму"
типичным представителем текстов
начальной части букваря, то по ней можно
оценить вероятности появления каждого
символа(рис.2).
Расчет энтропии дает значение 2,5
бит/буква. Используя код Хаффмана, можно
добиться того, чтобы для кодирования
одной буквы расходовалось бы в среднем
2,5 двоичных
знаков.
Пример формирования кода Хаффмана приведен на рис.3. Все символы располагаются в порядке убывания их вероятностей. Два нижних, т.е. наименее вероятных символа объединяются в один, которому приписывается суммарная вероятность. Верхнему символу этого объединения ставится в соответствие (в качестве цифры кодового слова) цифра 0, нижнему - 1. Объединение занимает в новой группировке символов положение, соответствующее его общей вероятности. Два наименее вероятных символа опять объединяются по тем же правилам. Этот процесс повторяется до тех пор, пока в результате объединения не получится суммарная вероятность, равная единице. Для составления кода каждого символа надо проследить путь к этому символу от последней группировки. (Следует иметь в виду, что значение энтропии данного примера не относится к текстам, взятым не из букваря).
Н
о
статистическая структура языка более
сложна, чем это можно предполагать по
данным приведенного примера. В текстах
можно заметить определенные многобуквенные
сочетания, отражающие корреляционные
связи между буквами текстов. Например,
за гласной буквой с большой вероятностью
следует согласная, но никогда не следует
мягкий знак (такие особенности учтены
при разработке клавиатур пишущих машин
и компьютеров). Если принять во внимание
вероятности двухбуквенных сочетаний,
то энтропия становится равнойH2=3,5;
с учетом трехбуквенных сочетаний
энтропия уменьшается до H3=3,0
бит/буква. Если ограничиться восемью
буквенными сочетаниями, то можно оценить
энтропию осмысленного текста как
H=H8=2,3
бит/буква.
Величиной R=1-(H/H0) принято характеризовать избыточность сообщения. Коэффициент R принимает значения в диапазоне от 0 до 1. Он равен 0 (избыточность отсутствует), если H=H0. Это может быть в случае, если все символы алфавита независимы и равновероятны. Энтропия H при этом принимает максимально возможное значение H0. Каждый символ сообщения переносит H0 битов информации, каждый разряд равномерного двоичного кода, описывающего сообщение, - 1 бит, что и соответствует сообщению без избыточности. Коэффициент R стремится к 1 (или 100%), если H<<H0 , что означает малую информативность и высокую степень предсказуемости текста данного сообщения.
Это может быть в случае, если символы алфавита характеризуются значительно отличающимися вероятностями появления в текстах сообщений, например, когда один символ алфавита значительно более вероятен, чем другие. Это может быть также и при близких вероятностях появления отдельных символов, если в текстах сообщений можно обнаружить сильные корреляционные связи, проявляющиеся в частом повторении определенных многобуквенных сочетаний. Данное обстоятельство и допускает возможность предсказания не принятого еще текста сообщения (или хотя бы его фрагмента) на основе уже полученной части сообщения. Как видно, коэффициент R показывает, на какой процент может сократиться длина сообщения, если применить экономное кодирование.
С
ообщение
изN
букв
содержит H*N
информации. При двоичном кодировании
его длина составит H0*N
двоичных знаков. Экономное кодирование,
учитывающее вероятности появления букв
и сочетаний, позволяет в принципе
сократить длину сообщения до H*N
двоичных знаков. Величину
CR=(H0*N)/(H*N)=
(log2M)/H
можно назвать
максимально
возможным коэффициентом компрессии.
Следует иметь в виду, что, определяя количество информации в сообщениях и оценивая их избыточность, мы учитываем только статистику появления отдельных символов алфавита и их сочетаний и не затрагиваем семантические и прагматические аспекты информации.
Как следует из приведенных выше рассуждений, избыточность текста на русском языке превышает 50%. Избыточность других распространенных европейских языков также велика. Однако это часто оказывается полезным. Именно избыточность языка позволяет понимать речь иностранца, говорящего с акцентом и ошибками, редактировать текст при наличии опечаток, а также восстанавливать исходное сообщение в случае пропусков целых слов (вспомните записку капитана Гранта).
