Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Теория информации (лекция №1).doc
Скачиваний:
39
Добавлен:
23.04.2019
Размер:
219.65 Кб
Скачать

Всегда ли в байте 8 битов

Первые компьютеры использовали формат, размером в байт, машинное слово, двойное машинное слово, не кратное 8. Обычно они были кратны шести. Восемь бит в байте было принято при разработке системы машинных команд для IBM System/360. Это стало международным стандартом и с начала 1970-х большинство компьютеров использует байты, состоящие из 8 бит, и машинные слова, кратные 8.

В системе IBM-360 были 8-битные байты, из-за использования BCD-формата представления числа: по 4 бита (тетрада) на каждую десятичную цифру (0-9). Таким образом, один байт мог представлять две цифры. Разработаные инструкции (машинные команды) для обработки данных под такой формат поддерживали 6-битные байты для BCD, но 8 бит в байте оказалось наилучшим решением.

По другой версии, 8-битный размер байта завязан на 8-битное числовое представление символа строки в кодировке EBCDIC. Из удобства: один байт = один символ.

В некоторых архитектурах (как правило, это суперкомпьютеры вроде Cray или сигнальные процессоры вроде TMS320VC31) из-за используемой адресации размер байта равен размеру машинного слова и содержит 32 бита. В терминах языка программирования Си, sizeof(char) == 1.

Рассматриваемые примеры относятся только к информационным байтам. Физический один байт, на машинном уровне, состоит из информационных битов и служебного бита. При последовательной передаче данных, служебный бит используется для разделения информационных байтов. При хранении информации или параллельной передаче, служебный бит используется для контроля правильности информации в байте. При пересчетах байта в бит и обратно, необходимо учитывать специфику обработки данных.

Информационные технологии

Информационные технологии — совокупность методов, производственных и программно-технологических средств, объединенных в технологическую цепочку, обеспечивающую сбор, хранение, обработку, вывод и распространение информации; предназначены для снижения трудоемкости процессов использования информационных ресурсов; подразделяются на:

  • Сбор, накопление, хранение, систематизация, поиск и обновление данных

  • Преобразование данных

  • Передача данных

  • Сжатие данных

  • Массовые коммуникации

  • Интернет

  • Информационно-коммуникационная инфраструктура

  • Программирование

  • Язык программирования

  • Феномены информационных технологий

  • Развитие с использованием ИКТ

  • Синергетика

  • Словарь терминов

  • Электронная торговля

  • Электронная цифровая подпись (ЭЦП)

  • Электронная экономика

  • Электронное правительство

  • Электронный бизнес

  • Электронный обмен данными (ЭОД)

  • Дигитализация

  • Информационные потребности

  • Информационный криминал

  • Цифровая экономика

и пр.

Согласно законодательству Украині- И.т. - процессы, методы поиска, сбора, хранения, обработки, предоставления, распространения информации и способы осуществления таких процессов и методов;

Литература

  • Claude E. Shannon, Warren Weaver. The Mathematical Theory of Communication. Univ of Illinois Press, 1963. ISBN 0-252-72548-4

  • Thomas M. Cover, Joy A. Thomas. Elements of information theory New York: Wiley, 1991. ISBN 0-471-06259-6

  • R. Landauer, Information is Physical Proc. Workshop on Physics and Computation PhysComp’92 (IEEE Comp. Sci.Press, Los Alamitos, 1993) pp. 1-4.

  • Maxwell’s Demon: Entropy, Information, Computing, H. S. Leff and A. F. Rex, Editors, Princeton University Press, Princeton, NJ (1990). ISBN 0-691-08727-X

  • Шеннон К. Работы по теории информации и кибернетике. — М.: Изд. иностр. лит., 1963. — 830 с.

  • Колмогоров А. Н. Три подхода к определению понятия «Количество информации» Новое в жизни, науке, технике. Сер. «Математика, кибернетика», N1, 1991, С.24-29. Перепечатка из «Проблемы передачи информации», N1, 1965, С.1-7.

  • MacKay, David. Information Theory, Inference, and Learning Algorithms. — Cambridge University Press, 2003. — ISBN 9780521642989

  • Claude E. Shannon, Warren Weaver. The Mathematical Theory of Communication. Univ of Illinois Press, 1963. ISBN 0-252-72548-4

  • Thomas M. Cover, Joy A. Thomas. Elements of information theory New York: Wiley, 1991. ISBN 0-471-06259-6

  • R. Landauer, Information is Physical Proc. Workshop on Physics and Computation PhysComp’92 (IEEE Comp. Sci.Press, Los Alamitos, 1993) pp. 1-4.

  • Maxwell’s Demon: Entropy, Information, Computing, H. S. Leff and A. F. Rex, Editors, Princeton University Press, Princeton, NJ (1990). ISBN 0-691-08727-X

  • Шеннон К. Работы по теории информации и кибернетике. — М.: Изд. иностр. лит., 1963. — 830 с.

  • Колмогоров А. Н. Три подхода к определению понятия «Количество информации» Новое в жизни, науке, технике. Сер. «Математика, кибернетика», N1, 1991, С.24-29. Перепечатка из «Проблемы передачи информации», N1, 1965, С.1-7.

  • MacKay, David. Information Theory, Inference, and Learning Algorithms. — Cambridge University Press, 2003. — ISBN 9780521642989