- •Содержание
- •1.Структура изучения дисциплины 6
- •2.1.11.Вопросы для самоконтроля 47
- •2.1.16.Вопросы для самоконтроля 53
- •3. Практикум по дисциплине 118
- •3.3. Основы алгоритмизации и программирования 121
- •4. Контрольная работа 132
- •Введение
- •1.Структура изучения дисциплины
- •1.1 Цель и задачи дисциплины
- •1.2. Методические рекомендации по изучению дисциплины Подраздел 2.1«Основы построения эвм» раздела 2 данного пособия
- •«Основы алгоритмизации и программирования»;
- •«Архитектура эвм»;
- •1.3.Глоссарий
- •1.4.Список рекомендуемых источников
- •1.5.Форма контроля
- •2.Теоретические основы организации и функционирования эвм
- •2.1. Основы построения эвм
- •2.1.1.Основные понятия и методы теории информации и кодирования
- •2.1.2.Формы, свойства, показатели качества информации
- •2.1.3.Меры и единицы представления, измерения и хранения информации
- •2.1.4. Системы счисления
- •Двоичная арифметика
- •Разрядные сетки эвм
- •Прямой и обратный коды
- •2.1.5.Кодирование данных в эвм
- •Кодирование текстовой информации
- •Кодирование чисел
- •Кодирование графической информации
- •Кодирование звуковой информации
- •Кодирование видеоинформации
- •2.1.6. Основные понятия алгебры логики
- •2.1.7.Логические основы эвм
- •2.1.8.Вопросы для самоконтроля
- •2.1.9. Архитектура эвм
- •Внешние устройства персонального компьютера:
- •Принципы фон Неймана
- •2.1.10. Состав и назначение основных элементов персонального компьютера
- •Запоминающие устройства: классификация, принцип работы, основные характеристики
- •Основные характеристики вычислительной техники
- •2.1.11.Вопросы для самоконтроля
- •2.1.12.Программные средства эвм
- •2.1.13.Классификация программного обеспечения
- •Системное программное обеспечение (спо)
- •Системы программирования
- •Прикладное программное обеспечение
- •Базовое программное обеспечение. Операционные системы (ос)
- •2.1.14.Понятие файла, файловой структуры
- •2.1.15. Операционная система ms Windows
- •2.1.16.Вопросы для самоконтроля
- •Классификация программного обеспечения.
- •2.1.17.Основы алгоритмизации и программирования
- •2.1.18. Понятие алгоритма
- •2.1.19. Основные типы алгоритмов
- •Линейные алгоритмы
- •Алгоритмы ветвлений
- •Циклические алгоритмы
- •2.1.20. Основные конструкции языка Turbo-Pascal
- •2.1.21. Структура программы на языке Паскаль
- •2.1.22. Основные операторы языка Паскаль Оператор присваивания
- •2.1.23. Операторы передачи управления
- •2.1.24. Программирование. Циклы
- •2.1.25. Программирование. Массивы
- •2.1.26.Этапы развития, принципы построения и классификация средств вт Этапы развития компьютеров
- •Поколения компьютеров - история развития вычислительной техники
- •Можно выделить общие тенденции развития компьютеров:
- •Нулевое поколение. Механические вычислители
- •Первое поколение. Компьютеры на электронных лампах (194х-1955)
- •Примеры компьютеров:
- •Второе поколение. Компьютеры на транзисторах (1955-1965г.Г.)
- •Третье поколение. Компьютеры на интегральных схемах (1965-1980)
- •Четвертое поколение. Компьютеры на больших (и сверхбольших) интегральных схемах (1980-…)
- •Пятое поколение эвм
- •Типы компьютеров: персональные, микроконтроллеры, серверы, мейн- фреймы и др.
- •Персональные компьютеры (пк)
- •Игровые компьютеры
- •Карманные компьютеры
- •Микроконтроллеры
- •Серверы
- •Мейнфреймы
- •Суперкомпьютеры
- •Рабочие станции
- •История развития персональных компьютеров
- •Основные принципы работы компьютера
- •2.2. Устройства управления процессами эвм
- •Устройство процессора и его назначение Описание и назначение процессоров
- •Устройство процессора
- •Работа процессора
- •Характеристики процессора
- •2.3. Память эвм Запоминающие устройства: классификация, принцип работы, основные характеристики
- •Оперативная память компьютера (озу, ram)
- •Назначение озу
- •Особенности работы озу
- •Логическое устройство оперативной памяти
- •Типы оперативной памяти
- •Вид модуля оперативной памяти
- •Разделы жесткого диска
- •2.4.Устройства ввода – вывода, периферийные устройства эвм Контроллеры и шина
- •Терминалы
- •Клавиатуры
- •Мониторы с электронно-лучевой трубкой
- •Жидкокристаллические мониторы
- •Принтеры
- •Монохромные принтеры
- •Цветные принтеры
- •Телекоммуникационное оборудование
- •Цифровые абонентские линии
- •Цифровые фотокамеры
- •3. Практикум по дисциплине
- •3.1. Арифметические операции в двоичной системе счисления
- •3.2. Построение таблиц истинности для логических формул
- •3.3. Основы алгоритмизации и программирования
- •Двумерные массивы
- •4. Контрольная работа
- •Системы счисления.
- •4.1. Рекомендации по выполнению контрольной работы
- •Раздел 3 контрольной работы должен включать:
- •4.2. Задания контрольной работы
- •4.2.1. Задание 1. Перевод чисел из одной системы счисления в другую
- •4.2.2.Задание 2. Алгебра логики
- •4.2.3.Задание 3. Основы алгоритмизации и программирования
- •Задание 3.1. Линейный алгоритм
- •Задание 3.2. Алгоритмы ветвления
- •Задание 3.3. Алгоритмы. Циклы
- •Задание 3.4. Одномерные массивы
- •Задание 3.5. Двумерные массивы
2.1.3.Меры и единицы представления, измерения и хранения информации
Количеством информации называют числовую характеристику сигнала, отражающую ту степень неопределенности (неполноту знаний), которая исчезает после получения сообщения в виде данного сигнала. Эту меру неопределенности в теории информации называют энтропией.
Любая информация может рассматриваться как уменьшение неопределенности наших знаний об окружающем мире (в теории информации принято говорить именно об уменьшении неопределенности, а не об увеличении объема знаний).
Случайность любого события заключается в том, что реализация того или иного исхода имеет некоторую степень неопределенности.
Пусть, например, абсолютно незнакомый нам студент сдает экзамен, результатом которого может служить получение оценок «неуд.», «удов.», «хор.» или «отл.». Поскольку мы ничего не знаем о данном студенте, то степень неопределенности всех перечисленных результатов сдачи экзамена совершенно одинакова. Напротив, если нам известно, как он учится, то уверенность в некоторых исходах будет больше, чем в других.
Наиболее просто определить количество информации в случае, когда все исходы события могут реализоваться с равной долей вероятности. В этом случае для вычисления информации используется формула Хартли1:
i = log2N, (1)
где i – количество информации,
N – множество сообщений.
Согласно этой формуле процесс получения информации рассматривается как выбор одного сообщения из конечного наперёд заданного множества N равновероятных сообщений, а количество информации i, содержащееся в выбранном сообщении, определяется как двоичный логарифм N.
Наиболее простую форму для формулы (1) можно представить следующим образом:
2i = N (2)
Пример: Из колоды выбрали 8 карт и положили на стол рисунком вниз. Верхнюю карту перевернули. Сколько информации будет заключено в сообщении о том, какая карта оказалась сверху?
Решение: Все карты одинаковы, поэтому любая из них могла быть перевернута с одинаковой вероятностью. Событие, заключающееся в открытии карты, для нашего случая могло иметь 8 возможных вариантов. Следовательно, информация о реализации одного из них равняется
i = log2 8 = 3 бита
Пример: Бросают монету. При броске может выпасть «орел» или «решка». Сколько информации будет заключено в сообщении о том, что выпал «орел» или «решка»?
Решение: Воспользуемся формулой Хартли. Для данной задачи N=2, следовательно, i = log2 2 = 1 бит.
В более сложной ситуации, когда исходы события ожидаются с разной степенью уверенности, требуются более сложные вычисления по формуле Шеннона:
i = (p1*Log2p1+ p2*Log2p2+….+ pi*Log2pi +….+pn*Log2pn), (3)
где n – количество возможных событий, pi – вероятности отдельных событий.
Бит – минимальная единица количества информации (необходимое для различения двух равновероятных сообщений).
При получении информации в 1 бит неопределенность уменьшается в 2 раза. Таким образом, каждое бросание монеты дает нам информацию в 1 бит.
В ЭВМ информация представляется в виде набора бит, позволяющих описывать различную информацию.
Байт – основная единица измерения информации в ЭВМ.
1 байт = 8 битам.
Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28).
Существуют производные единицы информации: килобайт (Кбайт, Кб), мегабайт (Мбайт, Мб), гигабайт (Гбайт, Гб), терабайт (Тбайт, Тб), петабайт (Пбайт, Пб).
1 Кб = 1024 байта = 210 (1024) байтов.
1 Мб = 1024 Кбайта = 220 (10242) байтов.
1 Гб = 1024 Мбайта = 230 (10243) байтов.
1 Тб = 1024 Гбайта = 240 (10244) байтов.
1 Пб = 1024 Тбайт = 250 (10245) байтов.
