
Содержание.
Введение……………………………………………………………………….…..3
Кодирование. Основные понятия и определения. Кодирование информации в компьютере………………………………………………………………………..4
Кодирование текстовой информации………………………………………..….6
Кодирование графической информации…………………………..…………….9
Кодирование звуковой информации……………………………………………17
Заключение………………………………………………………………………25
Приложения……………………………………………………………………...26
Список использованных источников и литературы…………………………..33
Введение.
Понятие информации играет в информатике столь же важную роль, как и понятие числа в математике. Информатика изучает свойства информации, а также способы представления, накопления и обработки информации с помощью технических средств. Именно поэтому изучение теоретических основ информатики обычно начинают с обсуждения понятия информации. Хотя теоретическая информатика возникла довольно давно, свою сегодняшнюю значимость она приобрела за последние 10-20 лет. Основная причина этого явления – бурное развитие технологической базы и, прежде всего, компьютеров и сетей. Только широкое распространение высокопроизводительных ЭВМ, соединённых быстрыми каналами обмена информацией, позволило человечеству вступить в новую эпоху — эпоху информационных технологий. Но как информация извне преобразуется и попадает в компьютер? Вся информация, будь она текстовая,графическая или звуковая попадает в компьютер посредством кодирования. В данной работе рассмотрены основные способы кодирования информации.
Таким образом, целью данной работы является изучение способов кодирования информации в ЭВМ.
. Кодирование. Основные понятия и определения. Кодирование информации в компьютере.
Рассмотрим основные понятия, связанные с кодированием информации. Для передачи в канал связи сообщения преобразуются в сигналы. Символы, при помощи которых создаются сообщения, образуют первичный алфавит, при этом каждый символ характеризуется вероятностью его появления в сообщении. Каждому сообщению однозначно соответствует сигнал, представляющий определенную последовательность элементарных дискретных символов, называемых кодовыми комбинациями. Кодирование - это преобразование сообщений в сигнал, т.е. преобразование сообщений в кодовые комбинации. Код - система соответствия между элементами сообщений и кодовыми комбинациями. Кодер - устройство, осуществляющее кодирование. Декодер - устройство, осуществляющее обратную операцию, т.е. преобразование кодовой комбинации в сообщение. Алфавит - множество возможных элементов кода, т.е. элементарных символов (кодовых символов) X = {xi}, где i = 1, 2,..., m. Количество элементов кода - m называется его основанием. Для двоичного кода xi = {0, 1} и m = 2. Конечная последовательность символов данного алфавита называется кодовой комбинацией (кодовым словом). Число элементов в кодовой комбинации - n называется значностью (длиной комбинации). Число различных кодовых комбинаций (N = mn) называется объемом или мощностью кода.
Если N0 - число сообщений источника, то N ³ N0. Множество состояний кода должно покрывать множество состояний объекта. Полный равномерный n - значный код с основанием m содержит N = mn кодовых комбинаций. Такой код называется примитивным.[2]
Современный компьютер может обрабатывать числовую, текстовую, графическую, звуковую и видео информацию. Все эти виды информации в компьютере представлены в двоичном коде, т. е. используется алфавит мощностью два (всего два символа 0 и 1). Связано это с тем, что удобно представлять информацию в виде последовательности электрических импульсов: импульс отсутствует (0), импульс есть (1). Такое кодирование принято называть двоичным, а сами логические последовательности нулей и единиц - машинным языком. [ см. прил.1]. Каждая цифра машинного двоичного кода несет количество информации равное одному биту.[4]
Данный вывод можно сделать, рассматривая цифры машинного алфавита, как равновероятные события. При записи двоичной цифры можно реализовать выбор только одного из двух возможных состояний, а, значит, она несет количество информации равное 1 бит. Следовательно, две цифры несут информацию 2 бита, четыре разряда --4 бита и т. д. Чтобы определить количество информации в битах, достаточно определить количество цифр в двоичном машинном коде.