- •«Оренбургский государственный университет»
- •Информатика
- •Часть 1
- •Рецензент – преподаватель кафедры вычислительной техники и математики с.В. Орлова
- •Содержание
- •Введение
- •1 Информационная деятельность человека
- •1.1 Введение. Информация в реальном мире, понятие информации. Виды информации, носители информации.
- •1.1.1 Понятие «информация» в науках о неживой и живой природе, обществе и технике
- •1.1.2 Информация в физике
- •1.1.3 Информация в биологии
- •1.1.4 Информация в кибернетике
- •1.1.5 Свойства информации
- •1.1.6 Информация и знания.
- •1.1.7 Классификация информации
- •1.2 Основные этапы развития информационного общества.
- •1.2.1 Информационные революции
- •1.2.2 Информационное общество
- •1.2.3 Информатизация общества
- •1.2.4 Изменения в сфере образования.
- •1.3 Этапы развития технических средств и информационных ресурсов.
- •1.3.1 Поколения электронно-вычислительных машин (эвм)
- •1.3.2 Понятие информационных ресурсов
- •1.3.3 Рынок информационных ресурсов
- •1.3.4 Информационные услуги
- •1.4 Виды профессиональной информационной деятельности человека с использованием технических средств и информационных ресурсов.
- •1.4.1 Виды профессиональной деятельности
- •Профессии, связанные с построением математических и компьютерных моделей, программированием, обеспечением информационной деятельности людей и организаций
- •1.4.3 Правовая охрана информации
- •2 Информация и информационные процессы
- •2.1 Измерение информации. Информационные объекты различных видов. Универсальность дискретного (цифрового) представления информации. Представление информации в двоичной системе счисления.
- •2.1.1 Измерение информации
- •2.1.2 Двоичное кодирование текстовой информации в компьютере
- •2.1.3 Двоичное кодирование графической информации в компьютере
- •2.1.4 Двоичное кодирование звуковой информации в компьютере
- •2.1.5 Кодирование числовой информации. Системы счисления
- •2.1.5.1 Непозиционные системы счисления
- •2.1.5.2 Позиционные системы счисления
- •2.1.6 Перевод десятичных чисел в двоичную систему счисления
- •2.1.7 Арифметические операции в позиционных системах счисления
- •2.2 Основные информационные процессы и их реализация с помощью компьютера. Арифметические и логические основы работы компьютера. Алгоритмы и способы их описания
- •2.2.1 Основные информационные процессы и их реализация с помощью компьютера.
- •2.2.2 Алгоритмы и способы их описания
- •2.2.4 Алгоритмические структуры «ветвление», «выбор» и «цикл»
- •2.3 Хранение информационных объектов различных видов на различных цифровых носителях. Определение объёмов различных носителей информации. Архив информации
- •2.3.1 Носители информации
- •2.3.2 Определение объёмов различных носителей информации.
- •2.3.3 Алфавитный подход к определению количества информации
- •2.3.4 Архивы информации
- •2.4 Поиск информации с использованием компьютера. Программные поисковые сервисы. Передача информации между компьютерами. Виды связи. Автоматизированные системы управления
- •2.4.1 Поиск информации с использованием компьютера.
- •2.4.3 Автоматизированные системы управления
- •Список использованных источников
2 Информация и информационные процессы
2.1 Измерение информации. Информационные объекты различных видов. Универсальность дискретного (цифрового) представления информации. Представление информации в двоичной системе счисления.
2.1.1 Измерение информации
Получение информации можно связать с уменьшением неопределённости знания. Это позволяет количественно измерять информацию, что чрезвычайно важно для информатики. Рассмотрим вопрос об определении количества информации более подробно на конкретных примерах.
Пусть у нас имеется монета, которую мы бросаем на ровную поверхность. С равной вероятностью произойдет одно из двух возможных событий — монета окажется в одном из двух положений: «орел» или «решка».
Перед броском существует неопределенность нашего знания (возможны два события), и как упадет монета, предсказать невозможно. После броска наступает полная определенность, так как мы видим, что монета в данный момент находится в определенном положении. Это сообщение приводит к уменьшению неопределенности нашего знания в два раза, так как из двух возможных равновероятных событий реализовалось одно. При бросании равносторонней четырехгранной пирамиды существуют 4 равновероятных события, а при бросании шестигранного игрального кубика — 6 равновероятных событий.
Чем больше количество возможных событий, тем больше начальная неопределенность нашего знания и соответственно тем большее количество информации будет содержать сообщение о результатах опыта.
Единицы измерения количества информации. Для количественного выражения любой величины необходимо определить единицу измерения.
Бит – количество информации, которое содержит сообщение, уменьшающее неопределенность знания в два раза..
Если вернуться к опыту с бросанием монеты, то здесь неопределенность как раз уменьшается в два раза (из двух возможных событий реализуется одно) и, следовательно, количество полученной информации равно 1 биту.
Минимальной единицей измерения количества информации является бит, а следующей по величине единицей — байт, причем
1 байт = 23 битов = 8 битов.
В информатике система образования кратных единиц измерения количества информации несколько отличается от принятых в большинстве наук. Традиционные метрические системы единиц, например Международная система единиц СИ, в качестве множителей кратных единиц использует коэффициент 10n, где n = 3, 6, 9 и т. д., что соответствует десятичным приставкам «кило»(103), «мега»(106), «гига»(109).
Компьютер оперирует числами не в десятичной, а в двоичной системе счисления, поэтому в кратных единицах измерения количества информации используется коэффициент 2n.
Так, кратные байту единицы измерения количества информации вводятся следующим образом:
1 Кбайт = 210 байт = 1024 байт;
1 Мбайт = 210 Кбайт = 1024 Кбайт;
1 Гбайт = 210 Мбайт = 1024 Мбайт.
2.1.2 Двоичное кодирование текстовой информации в компьютере
Для представления текстовой информации (прописные и строчные буквы русского и латинского алфавитов, цифры, знаки и математические символы) достаточно 256 различных знаков. По формуле, которая связывает между собой количество возможных событий N и количество информации I, можно вычислить, какое количество информации необходимо, чтобы закодировать каждый знак:
N = 2I => 256 = 2I => 28 = 2I => I = 8 битов.
Для обработки текстовой информации на компьютере необходимо представить ее в двоичной знаковой системе. Каждому знаку необходимо поставить в соответствие уникальный 8-битовый двоичный код, значения которого находятся в интервале от 00000000 до 11111111 (в десятичном коде от 0 до 255).