Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Алгоритм Шеннона - Фано.docx
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
92.46 Кб
Скачать
    1. Основные понятия, относящиеся к кодированию.

Информация – это осознанные сведения об окружающем мире, которые являются объектом хранения, преобразования, передачи и использования. Сведения – это знания, выраженные в сигналах, сообщениях, известиях, уведомлениях и т.д.

Вся информация, которую хранит, обрабатывает и передает по сетям компьютер, представлена в виде двоичных чисел. Существуют международные стандарты и методы кодирования текстовой, числовой, изобразительной, звуковой и видеоинформации. Знание основных кодовых таблиц очень важно для правильного чтения информации Интернета, электронной почты, текстовых документов в кодировке различных операционных систем [6].

Думая о данных, обычно мы представляем себе ни что иное, как передаваемую этими данными информацию: список клиентов, мелодию на аудио компакт-диске, письмо и тому подобное. Как правило, мы не слишком задумываемся о физическом представлении данных. Заботу об этом - отображении списка клиентов, воспроизведении компакт-диска, печати письма - берет на себя программа, манипулирующая данными.

Для хранения в компьютере и передачи информации по каналам связи символы должны быть закодированы при помощи некоторого кодового алфавита - набора знаков, при помощи которых можно составлять слова.

С помощью двух цифр 0 и 1 можно закодировать любое сообщение. Это явилось причиной того, что в компьютере обязательно должно быть организованно два важных процесса [6]:

  • Кодирование – преобразование входной информации в форму, воспринимаемую компьютером, т.е. двоичный код.

  • Декодирование – преобразование данных из двоичного кода в форму, понятную человеку.

Код-это набор условных обозначений (или сигналов) для записи (или передачи) некоторых заранее определенных понятий.

Кодирование информации – это процесс формирования определенного представления информации. В более узком смысле под термином «кодирование» часто понимают переход от одной формы представления информации к другой, более удобной для хранения, передачи или обработки.

Человек кодирует информацию с помощью языка. Язык - это знаковая форма представления информации [7].

Языки бывают естественные (русский, английский и т.д.) и формальные (язык математики, химии, программирования и т.д.) Любой язык имеет свой алфавит - набор основных символов, различимых по их начертанию. Алфавит обычно бывает жестко зафиксирован и имеет свой синтаксис и грамматику.

Одну и ту же информацию можно кодировать разными способами. Например, объект «КЛАВИАТУРА»: можно представить в виде текстовой информации - написать на русском языке и на английском. Можно представить в виде графической информации - фото и видео. Можно в виде звука - произнести это слово и т.д. Это разные способы кодирования одного и того же объекта.

Огромное количество различной информации неизбежно привело человека к попыткам создать универсальный язык или азбуку для кодирования. Эта проблема была реализована с помощью компьютера. Всю информацию, с которой работает компьютер, можно представить в виде последовательности всего двух знаков - 1 и 0. Эти два символа называются двоичным цифрами, по-английски - binarydigit или бит.

Обычно каждый образ при кодировании представлении отдельным знаком. Знак - это элемент конечного множества отличных друг от друга элементов.

С точки зрения технической реализации использование двоичной системы счисления для кодирования информации оказалось намного более простым, чем применение других способов. Действительно, удобно кодировать информацию в виде последовательности нулей и единиц, если представить эти значения как два возможных устойчивых состояния электронного элемента: 0-отсутствие электрического сигнала;1-наличие электрического сигнала.

Эти состояния легко различать. Недостаток двоичного кодирования – длинные коды. Но в технике легче иметь дело с большим количеством простых элементов, чем с небольшим числом сложных.

Существуют разные способы кодирования и декодирования информации в компьютере [2]. Это зависит от вида информации: текст, число, графическое изображение или звук. Для числа также важно, как оно будет использовано: в тексте, или в вычислениях, или в процессе ввода-вывода.

Вся информация кодируется в двоичной системе счисления: с помощью цифр 0 и 1. Эти два символа называют двоичными цифрами или битами. Такой способ кодирования технически просто организовать: 1 - есть электрический сигнал, 0 - нет сигнала. Недостаток двоичного кодирования - длинные коды. Но в технике легче иметь дело с большим числом простых однотипных элементов, чем с небольшим числом сложных.