- •1.1. Понятие информации
- •1.2. Методы получения информации
- •1.3. Свойства информации
- •1.4. Измерение информации
- •1.5. Передача информации. Информационные каналы
- •1.6. Характеристики информационного канала
- •1.7. Использование информации
- •1.8. Обработка информации
- •1.9. Формы представления информации
- •1.10. Способы представления чисел в компьютере
- •1.11. Кодировка символов
- •2. Технические и программные средства реализации информационных процессов. Структурная организация и принципы функционирования персональных компьютеров (пк)
- •2.1. Основные типы компьютеров. Конфигурации персональных компьютеров (пк)
- •2.2. Основные принципы функционирования пк
- •2.3. Состав типового компьютера
- •2.4. Устройства обработки
- •2.5. Устройства хранения
- •2.6. Устройства вывода
- •2.7. Устройства ввода
- •3.Основные понятия и принципы моделирования
- •3.1. Понятие модели и моделирования
- •3.2. Назначение моделей
- •3.3. Основные этапы построения моделей
- •3.4. Классификация моделей
- •3.5. Понятие формализации
- •3.6. Этапы решения задач на компьютере
- •3.7. Методы разработки алгоритмов и программ
- •3.8. Основы алгоритмизации
- •3.9. Способы представления алгоритмов
- •Блок-схемы алгоритмов и программ
- •3.10. Типы алгоритмов
- •3.11. Классификация языков программирования
- •3.12. Основы объектно-ориентированного программирования
- •3.13. Системы программирования
- •4. Структура программного обеспечения пк
- •5. Методы защиты информации
- •5.1. Компьютерные вирусы
- •5.2. Методы защиты от компьютерных вирусов
- •5.3. Программы борьбы с компьютерными вирусами
- •5.4. Защита от несанкционированного доступа к информации
- •5.5. Использование криптографии
- •5.6. Реализация алгоритмов шифрования
- •5.7. Понятие государственной и коммерческой тайны
1.3. Свойства информации
Сначала рассмотрим свойство, которое гласит: любая полученная информация должна быть достоверной. Достоверность означает истинное, объективное отражение действительности. Информация в человеческом обществе передается и получается людьми или с их помощью. Каждый человек воспринимает окружающую действительность субъективно, имея свой собственный, отличный от других взгляд и мнение. Поэтому передаваемая или получаемая человеком информация не может быть абсолютно объективна, но может быть приближена к объективной. Смысл этого свойства заключается в определении, насколько данная информация соответствует истинному положению дел. Недостоверная информация повлечет за собой неправильное понимание и принятие неправильных решений.
Если информация содержит все интересующие нас данные и их достаточно для понимания и принятия решений, тогда говорят, что информация полна.
Также важно, чтобы получаемая информация соответствовала бы данной ситуации. Иными словами, информация должна быть актуальной.
Информация должна быть выражена в таком виде, который был бы понятен получателю данной информации. В этом заключается следующее свойство информации — ясность.
Получая новую информацию, мы смотрим, нужна ли она для решения данной проблемы. Одна и та же информация может быть очень важной для одного человека и быть абсолютно бесполезной для другого. От того, какие задачи можно решить с помощью данной информации, зависит ее ценность.
Таким образом, мы определили следующие свойства информации: достоверность, полноту, актуальность, ясность и ценность.
1.4. Измерение информации
В научном плане понятие «информация» связывается с вероятностью осуществления того или иного события.
Вероятность — числовая характеристика степени возможности наступления события. Вероятность достоверного события (обязательно должно произойти) равна 1, невозможного события (не произойдет никогда) — 0. Вероятность случайного события лежит в интервале (0, 1). Например, вероятность выпадения «орла» при подбрасывании монеты равна 1/2, а вероятность выпадения каждой из граней при игре в кости — 1/6.
Случайным называется событие, которое может произойти, а может и не произойти. Примерами случайных событий могут служить выпадение «орла» при подбрасывании монеты или число очков (т.е. выпадение определенной грани) при игре в кости.
Американский инженер Р. Хартли (1928) процесс получения информации рассматривал как выбор одного сообщения из конечного заранее заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определяет как двоичный логарифм N.
Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли
I = log2N
можно вычислить, какое количество информации для этого требуется:
I = log2100 = 6,644,
т.е. сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644.
Американский ученый Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе:
I = - (Pl log2 P1 + P2 log2 Р2 + • • • + PN log2 Pn),
где рi — вероятность того, что именно i-e сообщение выделено в наборе из N сообщений.
Если вероятности P1, ..., PN равны, то каждая из них равна 1/N, и формула Шеннона превращается в формулу Хартли.
Анализ формулы показывает, что чем выше вероятность события, тем меньшее количество информации возникает после его осуществления, и наоборот. Если вероятность равна 1 (событие достоверно), количество информации равно 0.
Если вероятность свершения или несвершения какого-либо события одинакова, т.е. равна 1/2, то количество информации, которое несет с собой это событие, равно 1. Это и есть единица измерения информации, которая получила наименование бит.
Если событие имеет m равновероятных исходов как при подбрасывании монеты или при игре в кости, то вероятность конкретного исхода равна 1/m, и формула Шеннона приобретает вид: I = log2 т.
В этом случае I = 1 бит при m = 2. Для информации об исходе такого события достаточно двух символов (например, 0 и 1). Система счисления, в которой используется только два символа, называется двоичной.
Поэтому бит можно также определить как количество информации, которое содержит один разряд двоичного числа (отсюда название «бит»: binary digit — двоичный разряд). Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений.
Количество информации, равное 8 битам, называется байтом. В восьми разрядах можно записать 256 различных целых двоичных чисел от 00000000 до 11111111.
Широко используются более крупные производные единицы информации:
1 Килобайт (Кбайт) = 1024 байт;
1 Мегабайт (Мбайт) = 1024 Кбайт;
1 Гигабайт (Гбайт) = 1024 Мбайт.
