- •Краткие исторические сведения. Поколения цвм
- •Основные сведения из теории информации
- •2.1. Понятие информации
- •2.2. Количество информации. Единицы измерения информации
- •3. Основные сведения из теории алгоритмов
- •3.1. Понятие алгоритма
- •3.2. Свойства алгоритмов
- •3.3. Алгоритмические системы: операторные описания и граф-схемы
- •4. Принципы построения и классификация цвм
- •4.1. Принцип программного управления процессом вычислений
- •4.2. Операционные ресурсы цвм
- •4.3. Аппаратные средства цвм: память, процессор, периферийные устройства
Основные сведения из теории информации
2.1. Понятие информации
Понятие информации является одним из наиболее общих понятий науки и обозначает совокупность некоторых сведений, данных, знаний и т. п. В ВТ информация — свойство объектов и явлений материального мира порождать многообразие состояний, которые посредством отражения передаются от одного объекта к другому и запечатлеваются в его структуре (возможно, в изменен-ном виде). При этом под информацией понимают не сами объекты и явления, а их существенные и представительные признаки, их отражения в виде чисел, формул, описаний, чертежей, символов, образцов и других абстрактных характеристик. Сама по себе информация может быть отнесена к области абстрактных категорий, подобных математическим формулам.
Передачей информации называется перенос информации на расстояние. Для этого необ-ходимы как минимум два объекта —источник информации и приемник информации, соединенные каналом связи. В канале связи информация представляется в материально-энергетической форме посредством множества состояний некоторых материальных объектов, называемых носителями информации или сигналами. Отображение множества состояний источника информации во множестве состояний носителя называется кодированием, а отображение множества состояний носителя информации во множество состояний приемника – декодированием. Способ отображения информации, устанавливающий соответствие между элементами сообщений и сигналами, называет-ся кодом.
Источники информации делятся на непрерывные и дискретные. Непрерывные источники создают сообщения, которые отображаются сигналами, представляющими собой какие-либо физи-ческие величины, изменяющиеся непрерывно и принимающие бесконечное число значений в не-котором диапазоне. Такое представление информации используется в аналоговых вычислительных и моделирующих устройствах. Дискретные источники информации создают сообщения, состоящие из конечного множества элементов, называемых буквами или символами. Буквы отображаются сигналами, принимающими конечное число значений. В современной ВТ понятие буквы включает в себя символы различных систем письменности, цифры, знаки препинания, математические знаки и т. п. Если элементам дискретного сообщения поставлены в соответствие цифры или некоторые их совокупности, то такое представление информации называется цифровым (числовым). Конечный набор букв, используемых для отображения дискретных сообщений, называется алфавитом. Число букв в алфавите определяет его объем или значность алфавита. Любую конечную последова-тельность букв некоторого алфавита принято называть словом (в том числе последовательность, состоящую из цифр). Число букв в слове называется его длиной.
2.2. Количество информации. Единицы измерения информации
Количество информации, передаваемой от источника к приемнику, связано с вероятностью пребывания источника в том или ином состоянии. Если состояние источника известно заранее (до передачи информации), то количество информации, получаемой приемником при передаче, равно нулю. Если же состояние источника не известно заранее, то количество получаемой информации определяется формулой
![]()
где N — число состояний, в которых может находиться источник;
Pi — вероятность появления i-ro состояния (i = 1, 2, . . . , N - 1, N).
При
равновероятных состояниях источника
(т.е. при Р1
=
Р2
=…=
РN
=
)
![]()
Основание логарифма k в последней формуле определяет единицу количества инфор-мации. При k = 2 соответствующая единица называется бит (Bit — от слов binary digit). Такая единица чаще всего встречается в технике, что обусловлено наиболее частым использованием двузначного алфавита для представления дискретной информации. Один бит равен количеству информации, получаемому от источника с двумя равновероятными состояниями.
Современные ЭВМ могут обрабатывать не только числовую информацию, но и информа-цию, заданную любыми другими символами. Обычно для представления одного символа служит слово длиной в 23 = 8 бит, получившее название байта. Посредством слов такой длины можно закодировать 28 = 256 различных символов, чего вполне достаточно при решении многих задач, связанных с обработкой символьной информации. Количество информации в этом случае удобно из-мерять также в байтах.
Для
измерения больших объемов информации
в ВТ применяются специальные единицы,
ко-торые обозначаются К и М и читаются
соответственно «кило» и «мега». При
этом 1К = 1024 = 210,
1М = 1 048 576 = 220.
Например, 1М байт = 210
К байт = 220
байт = 223
бит, 1М бит = 210
К бит = 220
бит, 1К байт = 210
байт = 213
бит, 1К бит = 210
бит. Иногда в приближенных расчетах
полагают, что К
103,
М
106.
Единицей
измерения скорости передачи информации
по каналам связи служит бод, равный
1
.
Кроме перечисленных единиц для измерения количества информации, обрабатываемой и хранимой в ЭВМ, используются также единицы, не имеющие постоянного количественного эквивалента. К таким единицам относятся поле, слово, массив, сегмент и другие. Поле представляет собой группу бит, имеющую определенное значение (например, поле, в котором указывается в кодированном виде операция, выполняемая на ЭВМ).
Совокупность бит, байтов, полей, слов, объединяемых некоторым общим признаком (напри-мер, исходные данные для решения задачи), называется массивом. Сегмент — упорядоченная совокупность бит, байтов, полей, слов, массивов, сгруппированных вместе с целью наименования.
