Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
inform.docx
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
201.02 Кб
Скачать

1)Методы и еденици измерения количества информации

Для информации существуют свои единицы измерения информации. Если рассматривать сообщения информации как последовательность знаков, то их можно представлять битами, а измерять в байтах, килобайтах, мегабайтах, гигабайтах, терабайтах и петабайтах.Давайте разберемся с этим, ведь нам придется измерять объем памяти и быстродействие компьютера.БитЕдиницей измерения количества информации является бит – это наименьшая (элементарная) единица. 1бит – это количество информации, содержащейся в сообщении, которое вдвое уменьшает неопределенность знаний о чем-либо. БайтБайт – основная единица измерения количества информации.Байтом называется последовательность из 8 битов. Байт – довольно мелкая единица измерения информации. Например, 1 символ – это 1 байт.Производные единицы измерения количества информации1 байт=8 бито1 килобайт (Кб)=1024 байта =210 байтов1 мегабайт (Мб)=1024 килобайта =210 килобайтов=220 байтов1 гигабайт (Гб)=1024 мегабайта =210 мегабайтов=230 байтов1 терабайт (Гб)=1024 гигабайта =210 гигабайтов=240 байтовЗапомните, приставка КИЛО в информатике – это не 1000, а 1024, то есть 210 .Методы измерения количества информацииИтак, количество информации в 1 бит вдвое уменьшает неопределенность знаний. Связь же между количеством возможных событий N и количеством информации I определяется формулой Хартли:N=2i. Алфавитный подход к измерению количества информацииПри этом подходе отвлекаются от содержания (смысла) информации и рассматривают ее как последовательность знаков определенной знаковой системы. Набор символов языка, т.е. его алфавит можно рассматривать как различные возможные события. Тогда, если считать, что появление символов в сообщении равновероятно, по формуле Хартли можно рассчитать, какое количество информации несет в себе каждый символ:I=log2N.

2)Двоичное кодирование информации

Теория кодирования – это раздел теории информации, связанный с задачами кодирования и декодирования сообщений, поступающих к потребителям и посылаемых из источников информации. Теория кодирования близка к древнейшему искусству тайнописи – криптографии. Над разработкой различных шифров трудились многие известные ученые: философ Ф. Бэкон, математики Д.Кардано, Д. Валлис. Одновременно с развитием методов шифровки развивались приемы расшифровки, или криптоанализа. В середине ХIХ в. ситуация изменилась. Изобретение телефона и искрового телеграфа поставило перед учеными и инженерами проблему создания новой теории кодирования. Первой ориентированной на технику системой кодирования оказалась азбука Морзе, в которой принято троичное кодирование (точка, тире, пауза).Двоичное кодирование – один из распространенных способов представления информации. В вычислительных машинах, в роботах и станках с числовым программным управлением, как правило, вся информация, с которой имеет дело устройство, кодируется в виде слов двоичного алфавита. Двоичный алфавит состоит из двух цифр 0 и 1.Цифровые ЭВМ (персональные компьютеры относятся к классу цифровых) используют двоичное кодирование любой информации. В основном это объясняется тем, что построить техническое устройство, безошибочно различающее 2 разных состояния сигнала, технически оказалось проще, чем то, которое бы безошибочно различало 5 или 10 различных состояний.К недостаткам двоичного кодирования относят очень длинные записи двоичных кодов, что затрудняет работу с ними.