
- •Лекция №1
- •Тема 1.1: Введение в информатику и информационные технологии Содержание:
- •1.1 Понятие информации, ее классификация, свойства информации
- •1.2 Наука информатика, ее предмет и задачи. Место информатики в системе научного знания
- •1.3 Общая характеристика процессов сбора, передачи, обработки и накопления информации
- •1.5 Представление информации
- •1.6 Понятие системы счисления
- •1.7 Кодирование информации
- •1.8 Двоичная форма представления информации
- •1.9 Кодирование числовой информации
- •1.10 Кодирование текстовой информации
- •1.11 Кодирование графической информации
- •1.12 Кодирование звуковой информации
- •1.13 Вероятностный подход к определению количества информации. Формулы Хартли и Шеннона
- •Контрольные вопросы
- •Кодирование информации.
- •Двоичная форма представления информации.
- •Лекция №2
- •Тема 2. Технические и программные средства реализации информационных процессов
- •2.1 История создания и развития средств вычислительной техники
- •Появление аналоговых вычислителей в предвоенные годы[
- •2.2 Поколения компьютеров: краткое описание
- •Первое поколение компьютеров с архитектурой фон Неймана
- •1950-Е — начало 1960-х: второе поколение]
- •1960-Е и далее: третье и последующие поколения
- •В ссср и России
- •2.3 Классификация эвм
- •2.3.1 Классификация эвм по принципу действия
- •2.3.2 Классификация эвм по этапам создания
- •2.3.3 Классификация эвм по назначению
- •2.3.4 Классификация эвм по размерам и функциональным возможностям
- •СуперЭвм
- •Большие эвм
- •Мини -эвм
- •Микро - эвм
- •Универсальные
- •Специализированные
- •Серверы
- •Рабочая станция
- •2.4 Основные принципы построения эвм. Принципы Фон-Неймана
- •2.5 Устройство персонального компьютера. Базовая аппаратная конфигурация
- •2.5.1Системный блок и его устройство
- •2.5.2 Периферийные устройства персонального компьютера
- •2.6 Программное обеспечение персонального компьютера и его классификация
- •Контрольные вопросы
- •Лекция № 3 Тема: Операционная система Windows 7.
- •Работа с Главным меню
- •Завершение работы Windows
- •Работа с приложением Компьютер
- •Открытие окна приложения Компьютер
- •Структура окна приложения Компьютер
- •Изменение вида рабочей зоны
- •Действия в списке ресурсов окна Компьютер
- •Работа с приложением Проводник
- •Запуск программы Проводник
- •Структура окна программы Проводник
- •Действия в окне программы Проводник
- •Запуск программ и открытие документов
- •Запуск программ с Рабочего стола
- •Запуск из Главного меню
- •Запуск из окна программы Компьютер и окна программы Проводник
- •Поиск файлов и папок
- •Операции с ярлыками
- •Переименование ярлыков
- •Удаление ярлыков
- •Упорядочение ярлыков на рабочем столе
- •Операции с файловой системой
- •Создание папок и пустых файлов
- •Создание файлов в приложениях Windows
- •Открытие, сохранение и закрытие файлов в приложениях Windows
- •Определение текущих свойств файлов и папок
- •Переименование файлов и папок
- •Выделение группы файлов и папок
- •Удаление папок и файлов. Работа с Корзиной
- •Печать документов
- •Буфер обмена
- •Контрольные вопросы
- •Литература
- •Список литературы:
1.11 Кодирование графической информации
В процессе кодирования изображения производится его пространственная дискретизация. Изображение разбивается на отдельные маленькие фрагменты и каждому из них присваивается значение или код его цвета.
Качество двоичного кодирования изображения определяется разрешающей способностью экрана и глубиной цвета.
Глубина цвета задается количеством битов, используемых для кодировки цвета. Наиболее распространенные значения глубины цвета являются 8, 16, 24, 32 бита. Кроме этого можно задать еще уровень интенсивности цвета. Например, глубина 24 бит можно выбрать уровень интенсивности от 0 до 255 (минимальная 00000000, максимальная 11111111).
1.12 Кодирование звуковой информации
Звук представляет собой волну с непрерывно меняющейся амплитудой и частотой. Чем больше амплитуда, тем он громче. Чем больше частота сигнала, тем выше тон. Для того чтобы компьютер мог обрабатывать звук, непрерывный звуковой сигнал должен быть превращен в последовательность электрических импульсов (двоичных нулей и единиц).
1.13 Вероятностный подход к определению количества информации. Формулы Хартли и Шеннона
Для технических систем определение количества информации или ее объема заключается в подсчете числа символов в сообщении, т.е. связано с его длиной и не зависит от содержания.
Для измерения количества информации в компьютерных системах используют две стандартные единицы измерения: бит (binary digit) и байт (bate).
1 байт = 8 бит
Бит – минимальная единица измерения информации, которая представляет собой двоичный знак двоичного алфавита {0;1}.
Байт – единица количества информации в СИ, представляющая собой восьмиразрядный двоичный код, с помощью которого можно представить один символ.
Информационный объем сообщения (информационная емкость сообщения) - количество информации в сообщении, измеренное в стандартных единицах или производных от них (Кбайтах, Мбайтах и т.д.).
1 байт = 8 бит
1 Кбайт = 210 байт = 1024 байт
1 Мбайт = 210 Кбайт = 220 байт
1 Гбайт = 210 Мбайт = 220 Кбайт = 230 байт
В теории информации количеством информации называют числовую характеристику сигнала, не зависящую от его формы и содержания, и характеризующую неопределенность, которая исчезнет после получения сообщения в виде данного сигнала. В этом случае количество информации зависит от вероятности получения сообщения о том или ином событии.
Для абсолютно достоверного события (событие обязательно произойдет, поэтому его вероятность равна 1) количество информации в сообщении о нем равно 0. Чем неожиданнее событие, тем больше информации он несет.
Лишь при равновероятных событиях: ответ «да» или «нет», несет 1 бит.
В 1928 г. американский инженер Р. Хартли предложил научный подход к оценке сообщений. Предложенная им формула имела следующий вид:
I = log2 K ,
где К - количество равновероятных событий;
I - количество бит в сообщении, такое, что любое из К событий произошло. Тогда K=2I.
Иногда формулу Хартли записывают так:
I = log2K = log2 (1 / р) = - log2 р,
т. к. каждое из К событий имеет равновероятный исход р = 1 / К, то К = 1 / р.
Задача.
Шарик находится в одной из трех урн: А, В или С. Определить сколько бит информации содержит сообщение о том, что он находится в урне В.
Решение.
Такое сообщение содержит I = log2 3 = 1,585 бита информации.
Но не все ситуации имеют одинаковые вероятности реализации. Существует много таких ситуаций, у которых вероятности реализации различаются. Например, если бросают несимметричную монету или "правило бутерброда".
В 1948 г. американский инженер и математик Клод Шеннон предложил формулу для вычисления количества информации для событий с различными вероятностями. Если I - количество информации, К - количество возможных событий, рi - вероятности отдельных событий, то количество информации для событий с различными вероятностями можно определить по формуле:
I = - Sum рi log2 рi,
где i принимает значения от 1 до К.
Формула Хартли является частным случаем формулы Шеннона:
I = - Sum 1 / К log2 (1 / К) = I = log2 К.
При равновероятных событиях получаемое количество информации максимально.
Задачи. 1. Определить количество информации, получаемое при реализации одного из событий, если бросают
а) несимметричную четырехгранную пирамидку;
б) симметричную и однородную четырехгранную пирамидку.
Решение.
а) Будем бросать несимметричную четырехгранную пирамидку. Вероятность отдельных событий будет такова:
р1 = 1 / 2,
р2 = 1 / 4,
р3 = 1 / 8,
р4 = 1 / 8,
тогда количество информации, получаемой после реализации одного из этих событий, рассчитывается по формуле:
I = -(1 / 2 log2 1/2 + 1 / 4 log2 1/4 + 1 / 8 log2 1/8 + 1 / 8 log2 1/8) = 1 / 2 + 2 / 4 + + 3 / 8 + 3 / 8 = 14/8 = 1,75 (бит).
б) Теперь рассчитаем количество информации, которое получится при бросании симметричной и однородной четырехгранной пирамидки:
I = log2 4 = 2 (бит).
2. Вероятность перового события составляет 0,5, а второго и третьего 0,25. Какое количество информации мы получим после реализации одного из них?
3. Какое количество информации будет получено при игре в рулетку с 32-мя секторами?
4. Сколько различных чисел можно закодировать с помощью 8 бит?
Решение: I=8 бит, K=2I=28=256 различных чисел.
Физиологи и психологи научились определять количество информации, которое человек может воспринимать при помощи органов чувств, удерживать в памяти и подвергать обработке. Информацию можно представлять в различных формах: звуковой, знаковой и др. рассмотренный выше способ определения количества информации, получаемое в сообщениях, которые уменьшают неопределенность наших знаний, рассматривает информацию с позиции ее содержания, новизны и понятности для человека. С этой точки зрения в опыте по бросанию кубика одинаковое количество информации содержится в сообщениях "два", "вверх выпала грань, на которой две точки" и в зрительном образе упавшего кубика.
При передаче и хранении информации с помощью различных технических устройств информацию следует рассматривать как последовательность знаков (цифр, букв, кодов цветов точек изображения), не рассматривая ее содержание.
Считая, что алфавит (набор символов знаковой системы) - это событие, то появление одного из символов в сообщении можно рассматривать как одно из состояний события. Если появление символов равновероятно, то можно рассчитать, сколько бит информации несет каждый символ. Информационная емкость знаков определяется их количеством в алфавите. Чем из большего количества символов состоит алфавит, тем большее количество информации несет один знак. Полное число символов алфавита принято называть мощностью алфавита.
Молекулы ДНК (дезоксирибонуклеиновой кислоты) состоят из четырех различных составляющих (нуклеотидов), которые образуют генетический алфавит. Информационная емкость знака этого алфавита составляет:
4 = 2I, т.е. I = 2 бит.
Каждая буква русского алфавита (если считать, что е=е) несет информацию 5 бит (32 = 2I).
При таком подходе в результате сообщения о результате бросания кубика , получим различное количество информации, Чтобы его подсчитать, нужно умножить количество символов на количество информации, которое несет один символ.
Количество информации, которое содержит сообщение, закодированное с помощью знаковой системы, равно количеству информации, которое несет один знак, умноженному на число знаков в сообщении.