
Всегда ли в байте 8 битов
Первые компьютеры использовали формат, размером в байт, машинное слово, двойное машинное слово, не кратное 8. Обычно они были кратны шести. Восемь бит в байте было принято при разработке системы машинных команд для IBM System/360. Это стало международным стандартом и с начала 1970-х большинство компьютеров использует байты, состоящие из 8 бит, и машинные слова, кратные 8.
В системе IBM-360 были 8-битные байты, из-за использования BCD-формата представления числа: по 4 бита (тетрада) на каждую десятичную цифру (0-9). Таким образом, один байт мог представлять две цифры. Разработаные инструкции (машинные команды) для обработки данных под такой формат поддерживали 6-битные байты для BCD, но 8 бит в байте оказалось наилучшим решением.
По другой версии, 8-битный размер байта завязан на 8-битное числовое представление символа строки в кодировке EBCDIC. Из удобства: один байт = один символ.
В некоторых архитектурах (как правило, это суперкомпьютеры вроде Cray или сигнальные процессоры вроде TMS320VC31) из-за используемой адресации размер байта равен размеру машинного слова и содержит 32 бита. В терминах языка программирования Си, sizeof(char) == 1.
Рассматриваемые примеры относятся только к информационным байтам. Физический один байт, на машинном уровне, состоит из информационных битов и служебного бита. При последовательной передаче данных, служебный бит используется для разделения информационных байтов. При хранении информации или параллельной передаче, служебный бит используется для контроля правильности информации в байте. При пересчетах байта в бит и обратно, необходимо учитывать специфику обработки данных.
Информационные технологии
Информационные технологии — совокупность методов, производственных и программно-технологических средств, объединенных в технологическую цепочку, обеспечивающую сбор, хранение, обработку, вывод и распространение информации; предназначены для снижения трудоемкости процессов использования информационных ресурсов; подразделяются на:
Сбор, накопление, хранение, систематизация, поиск и обновление данных
Преобразование данных
Передача данных
Сжатие данных
Массовые коммуникации
Интернет
Информационно-коммуникационная инфраструктура
Программирование
Язык программирования
Феномены информационных технологий
Развитие с использованием ИКТ
Синергетика
Словарь терминов
Электронная торговля
Электронная цифровая подпись (ЭЦП)
Электронная экономика
Электронное правительство
Электронный бизнес
Электронный обмен данными (ЭОД)
Дигитализация
Информационные потребности
Информационный криминал
Цифровая экономика
и пр.
Согласно законодательству Украині- И.т. - процессы, методы поиска, сбора, хранения, обработки, предоставления, распространения информации и способы осуществления таких процессов и методов;
Литература
Claude E. Shannon, Warren Weaver. The Mathematical Theory of Communication. Univ of Illinois Press, 1963. ISBN 0-252-72548-4
Thomas M. Cover, Joy A. Thomas. Elements of information theory New York: Wiley, 1991. ISBN 0-471-06259-6
R. Landauer, Information is Physical Proc. Workshop on Physics and Computation PhysComp’92 (IEEE Comp. Sci.Press, Los Alamitos, 1993) pp. 1-4.
Maxwell’s Demon: Entropy, Information, Computing, H. S. Leff and A. F. Rex, Editors, Princeton University Press, Princeton, NJ (1990). ISBN 0-691-08727-X
Шеннон К. Работы по теории информации и кибернетике. — М.: Изд. иностр. лит., 1963. — 830 с.
Колмогоров А. Н. Три подхода к определению понятия «Количество информации» Новое в жизни, науке, технике. Сер. «Математика, кибернетика», N1, 1991, С.24-29. Перепечатка из «Проблемы передачи информации», N1, 1965, С.1-7.
MacKay, David. Information Theory, Inference, and Learning Algorithms. — Cambridge University Press, 2003. — ISBN 9780521642989
Claude E. Shannon, Warren Weaver. The Mathematical Theory of Communication. Univ of Illinois Press, 1963. ISBN 0-252-72548-4
Thomas M. Cover, Joy A. Thomas. Elements of information theory New York: Wiley, 1991. ISBN 0-471-06259-6
R. Landauer, Information is Physical Proc. Workshop on Physics and Computation PhysComp’92 (IEEE Comp. Sci.Press, Los Alamitos, 1993) pp. 1-4.
Maxwell’s Demon: Entropy, Information, Computing, H. S. Leff and A. F. Rex, Editors, Princeton University Press, Princeton, NJ (1990). ISBN 0-691-08727-X
Шеннон К. Работы по теории информации и кибернетике. — М.: Изд. иностр. лит., 1963. — 830 с.
Колмогоров А. Н. Три подхода к определению понятия «Количество информации» Новое в жизни, науке, технике. Сер. «Математика, кибернетика», N1, 1991, С.24-29. Перепечатка из «Проблемы передачи информации», N1, 1965, С.1-7.
MacKay, David. Information Theory, Inference, and Learning Algorithms. — Cambridge University Press, 2003. — ISBN 9780521642989