
- •Раздел 1 (Лекция 1)
- •Цель и задачи курса «Информатика»
- •Сущность и цели информатизации общества
- •Неизбежность информатизации
- •Признаки информационного общества
- •Переход от постиндустриального общества к информационному
- •Информатика как научный фундамент информатизации
- •Краткая история развития информатики
- •Информатика: ИТ и АИС
- •Информационные технологии
- •Автоматизированные информационные системы
- •Структура АИС как совокупность 6-ти обеспечивающих подсистем
- •Основные этапы технологического процесса в АИС
- •Классификация АИС
- •Значение информационных технологий
- •Информационный ресурс общества
- •Предметная область информатики
- •Раздел 2 (Лекции 2-3)
- •Термин Информация
- •Термин данные
- •Общая схема передачи информации
- •Информационное сообщение
- •Аналоговая и дискретная информация
- •Термин Вычислительная машина (Компьютер)
- •Классификация вычислительных машин
- •Алфавитный способ Представление дискретной информации в ЭВМ
- •Процессы кодирования и декодирования информации
- •Классификация информации
- •Свойства информации: внутренние и внешние
- •Качество информации
- •Показатели качества
- •Набор важнейших показателей качества информации
- •Адекватность информации
- •Внутренние свойства информации
- •Знания и их свойства
- •Методы и модели оценки количества информации
- •Способы измерения информации
- •Объёмный способ измерения информации
- •Единицы измерения объёма
- •Энтропийный способ измерения количества информации
- •Формула Шеннона
- •Формула Хартли
- •Информативность сообщения
- •Алгоритмический способ измерения информации
- •Понятие Машины Тьюринга
- •Основные понятия теории алгоритмов
- •Алгоритмическая модель и её составляющие
- •Три основных класса алгоритмических моделей
- •Описание машины Тьюринга
- •Пример машинной модели (алгоритм сложения)
- •Алгоритмы Маркова
- •Понятие алгоритмически неразрешимой задачи
- •Раздел 3 (Лекции 4-5)
- •Системы счисления
- •Алфавит систем счисления
- •Базисные числа систем счисления
- •Аддитивно-мультипликативные системы счисления
- •Позиционные системы счисления
- •Основание позиционной системы счисления
- •Запись и изображение произвольного числа X в К-ичной позиционной системе счисления
- •Двоичная система счисления
- •Арифметические операции в двоичной системе счисления
- •Постановка задачи перевода чисел из одной системы счисления в другую
- •Перевод целых чисел
- •Перевод дробных чисел
- •Понятие смешанной системы счисления
- •Условие однозначности записи чисел в смешанной системе счисления
- •Двоично-десятичная система
- •Двоично-шестнадцатеричная система
- •Свойство смешанных систем и использование его в практических целях
- •Цели кодирования информации
- •Назначение памяти ЭВМ
- •Машинное слово
- •Ёмкость памяти
- •Свойства числовой системы ЭВМ
- •Числовая система ЭВМ без знака и со знаком
- •Операция дополнения до двух
- •Контроль правильности выполнения арифметических операций с помощью индикаторов переноса и переполнения
- •Операция вычитания положительных чисел
- •Коды представления чисел в ЭВМ
- •Раздел 4 (Лекция 6)
- •Представление символьной информации в ЭВМ
- •Требования к построению схем преобразования
- •Распространенные схемы кодирования
- •Код ASCII
- •Кодирование графической информации
- •Качество кодирования
- •Виды представления графических изображений (растровое, векторное, фрактальное, 3D графика)
- •Системы кодирования цветных изображений: HSB, RGB и CMYK
- •Режимы представления цветной графики (полноцветный, индексный)
- •Кодирование звуковой информации
- •Аналого-цифровое преобразование звука
- •Значения разрядности для звука
- •Форматы данных в ЭВМ
- •Представление логических кодов и структура разрядной сетки
- •Представление чисел в формате с фиксированной запятой и особенности данного формата
- •Представление чисел в формате с плавающей запятой
- •Процедура нормализации справа
- •Структура разрядной сетки
- •Выполнение арифметических операций над числами, представленными в формате с плавающей запятой
- •Сравнение форматов чисел с фиксированной и плавающей запятой
- •Раздел 5 (Лекция 7)
- •Общая характеристика процесса восприятия информации
- •Важнейшая проблема восприятия информации
- •Сбор информации, этапы сбора информации
- •Цифровой измерительный прибор
- •Передача информации
- •Структурная схема канала передачи данных
- •Повышения достоверности передачи данных
- •Обработка информации
- •Обобщенная структура вычислительной системы
- •Организация вычислительного процесса
- •Формы использования вычислительных ресурсов
- •Режимы взаимодействия пользователя с вычислительной системой
- •Хранение и накопление информации
- •Поиск данных
- •Раздел 6 (Лекция 8-9)
- •Классификация вычислительных средств
- •Понятие ЭВМ
- •Обобщенная структурная схема ЭВМ неймановской архитектуры
- •Формулировка принципов фон Неймана
- •Архитектура ЭВМ
- •Конфигурация и организация ЭВМ
- •Понятие команды и режима адресации
- •Упрощенная схема ЭВМ с шинной организацией
- •Арифметико-логическое устройство центрального процессора: состав и функции
- •Функции устройства управления центрального процессора
- •Состав устройства управления
- •Назначение и свойства памяти ЭВМ
- •Системная шина: назначение и состав
- •Принципиально общие закономерности в организации шин
- •Структура шины управления
- •Операции чтения и записи
- •Виды программно-управляемой передачи данных
- •Обобщенный алгоритм функционирования фон-неймановской ЭВМ с шинной организацией
- •Особенности реализации цикла процессора в ЭВМ с различной конфигурацией
- •Шинная организация: достоинства и недостатки
- •Раздел 7 (Лекции 10-12)
- •Упрощенная схема ЭВМ с канальной организацией
- •Понятие канала
- •Принципы подключения внешних устройств к каналам
- •Контроллер оперативной памяти
- •Канальные команды и команды ЦП для работы с каналами
- •Преимущества канальной организации ЭВМ
- •Канал как специализированный узел
- •Информационная модель ЭВМ
- •Основные характеристики ЭВМ при использовании информационной модели
- •Типовые схемы организации ЭВМ
- •Система команд ЭВМ
- •Классификация команд ЭВМ
- •Структура команды ЭВМ
- •Трёхадресная команда
- •Команды передачи данных
- •Команды обработки данных
- •Команды передачи управления
- •Организация подпрограмм в программе
- •Адрес возврата
- •Понятие стека и его организация
- •Структура данных стека на примере
- •Общие сведения о ПЭВМ
- •Смена поколений ПЭВМ
- •Роль компьютера IBM PC\
- •Классификация ПЭВМ
- •Структурная схема ПЭВМ с периферийными устройствами
- •Центральный микропроцессор, его функции и состав
- •МП с архитектурой RISC
- •Внутренняя память ПЭВМ
- •Сегментация оперативной памяти ПЭВМ
- •Расположение сегментов оперативной памяти ПЭВМ. Внешние запоминающие устройства ПЭВМ
- •Кластер
- •Размеры кластера
- •Фрагментация
- •Физический и логический формат диска
- •Таблица расположения файлов (File Allocation Table - FAT)
- •Стандартная файловая система для семейства операционных систем MS Windows: NTFS (New Technol File System)
- •Раздел 8 (Лекция 14)
- •Понятие алгоритма
- •Алгоритмический процесс
- •Семь независимых параметров алгоритма
- •Пример: параметры алгоритма Евклида
- •Способы описания алгоритмов
- •Словесно-формульный способ
- •Блок-схемный
- •Структурная блок-схема алгоритма
- •Линейные, ветвящиеся и циклические алгоритмы
- •Методы разработки алгоритмов
- •Раздел 9 (Лекция 13)
- •Программное обеспечение ЭВМ
- •Системное ПО: назначение и классификация
- •Общесистемное ПО
- •Прикладное ПО: назначение и классификация
- •Классификация пакетов прикладных программ
- •Этапы решения научно-технических задач на ЭВМ
- •Основные направления в программировании
- •Процедурное программирование
- •Структура процедуры и функции
- •Модульное программирование
- •Основная задача модульного программирования
- •Объектно-ориентированное программирование
- •Основные понятия ООП
Поскольку, например, одно и то же число может быть записано многими разными способами (с использованием разных алфавитов), то этот способ чувствителен к форме представления (записи) сообщения.
Единицы измерения объёма
В вычислительной технике вся обрабатываемая и хранимая информация представлена в двоичной форме (с использованием алфавита, состоящего всего из двух символов 0 и 1).
Такая стандартизация позволила ввести две стандартные единицы измерения: бит и байт. Бит — количество информации, которое может помещаться в один элемент памяти. Байт — это восемь бит.
Энтропийный способ измерения количества информации
Этот способ измерения исходит из следующей модели. Получатель информации (сообщения) имеет определённые представления о возможных наступлениях некоторых событий. Эти представления в общем случае недостоверны и выражаются вероятностями Pi, с которыми он ожидает то или иное событие.
Общая |
мера |
неопределённости (энтропия) характеризуется некоторой |
математической |
|||||
зависимостью |
от |
совокупности |
этих вероятностей. |
|
|
|
|
|
Количество информации в сообщении определяется тем, насколько уменьшится эта мера |
||||||||
неопределённости после получения сообщения. |
|
|
|
|
||||
Формула Шеннона |
|
|
|
|
|
|
||
Количество |
информации |
в |
сообщении, |
состоящем |
из |
N |
символов |
H= - Pi log2 Pi , где i изменяется от 1 до N, Pi - это вероятность i-ого символа.
Pi = 1/N при равновероятных символах.
H=log2 N, где N - число возможных равновероятных символов в сообщении.
Формула Хартли
Используется для оценки количества информации H в сообщении, передаваемого по каналу связи числовым кодом.
Пусть m – основание системы счисления (число букв алфавита) Пусть n – число разрядов в сообщении.
Тогда N = mn - число всевозможных кодовых комбинаций сообщения.
При равновероятном появлении любой кодовой комбинации количество информации, приобретённое получателем:
H=log2 N = log2 mn = n log2 m
Информативность сообщения
При условии полного априорного незнания получателем сообщения, передаваемого по каналу связи двоичным кодом, количество информации равно количеству символов в сообщении (числу разрядов), т.е. объёмный (V) и энтропийный (H) способ измерения дают один и тот же результат:
H=V=n, бит
При наличии некоторой априорной информации, т.е. при не равновероятных символах в сообщении, всегда H<V=n.
Kинф = H/V, [0, 1] Для увеличения Kинф разрабатываются методы оптимального кодирования информации.
Алгоритмический способ измерения информации
Этот метод кратко можно охарактеризовать следующими рассуждениями.
Каждый согласится, что слово 0101…01 сложнее слова 00...0, а слово, где 0 и 1 выбираются из эксперимента — бросания монеты (где 0 — герб, 1 — решка), сложнее обоих предыдущих.
Понятие Машины Тьюринга
Так как имеется много разных вычислительных машин и разных языков программирования (разных способов задания алгоритма), то для определенности задаются некоторой конкретной вычислительной машиной, например, абстрактной машиной Тьюринга.
А предполагаемая количественная характеристика — сложность слова (сообщения) определяется как минимальное число внутренних состояний машины Тьюринга, требующиеся для его воспроизведения.
Основные понятия теории алгоритмов
Страница 9 из 45
В информатике алгоритмы рассматриваются в двух аспектах: теоретическом и прагматическом, тесно связанным с программированием.
Теория алгоритмов — раздел математики, изучающий общие свойства алгоритмов.
Понятие «алгоритм» сформировалось в математике в 20-х годах XX в. Началом систематической разработки теории алгоритмов можно считать 1936 г. и связывают это начало с публикацией работы
А.А. Черча.
Алгоритмическая модель и её составляющие
Составляющими такой модели должны быть конкретный набор элементарных шагов, способы определения следующего шага. Каждый шаг должен быть элементарным и выполнимым, чтобы алгоритм понимался однозначно.
От модели также требуется простота и универсальность. Универсальность необходима для того, чтобы модель позволяла описать любой алгоритм.
Требование простоты важно для того, чтобы выделить необходимые элементы и свойства алгоритма и облегчить доказательства общих утверждений об этих свойствах.
Три основных класса алгоритмических моделей
Первый класс моделей основан на арифметизации алгоритмов.
Второй класс моделей основан на идее машинизации алгоритмов: он должен быть представлен так, чтобы его могла выполнять вычислительная машина.
Третий класс моделей алгоритмов оперирует конкретными алфавитами, здесь наиболее известная алгоритмическая модель— нормальные алгоритмы Маркова.
Первый. Предполагается, что любые данные можно закодировать числами, и как следствие — всякое их преобразование становится в этом случае арифметическим вычислением, алгоритмом в таких моделях является вычисление значения некоторой числовой функции, а его элементарные шаги — арифметические операции.
Последовательность шагов определяется двумя способами. Первый способ — суперпозиция, т.е. подстановка функции в функцию, а второй — рекурсия, т.е. определение значения функции через «ранее» вычисленные значения этой же функции. Функции, которые можно построить из целых чисел и арифметических операций с помощью суперпозиций и рекурсивных определений, называются
рекурсивными функциями. |
Например: n! (n+1) |
|
|
Второй. Основные составные части машины Тьюринга: (УУ) — управляющее устройство, 1 — |
|||
лента, |
2 |
- |
головка; |
А = {а1... аm} — алфавит машины; Q= {q1 … qn} — множество состояний машины (точнее, головки), среди которых выделяют начальное q1 и конечное qz
Третий. Для нормального алгоритма задается алфавит, над которым он работает, конечное множество допустимых подстановок и правила их применения:
1) проверить возможность подстановок в порядке возрастания их номеров, и если она возможна (левая часть подстановки обнаружена в исходном слове), произвести подстановку (заменив левую часть на правую);
2) если в примененной подстановке имеется символ «!», то преобразования прекращаются, а если нет, то текущее состояние становится исходным и весь процесс начинается заново;
3) если ни одна подстановка не применима, то процесс преобразования завершен.
Описание машины Тьюринга
Машина Тьюринга состоит из трех частей: ленты, головки и управляющего устройства. Лента бесконечна в обе стороны и разбита на ячейки. В каждой ячейке может быть записан только один символ. Отсутствие символа в ячейке обозначается специальным «пустым» символом, например, « ».
Головка всегда располагается над некоторой ячейкой ленты. Она может читать и писать символы, стирать их и перемещаться вдоль ленты как вправо так и влево.
Пример машинной модели (алгоритм сложения)
Пусть m и n неотрицательные целые числа произвольной длины.
Числа представляются счётно-импульсным кодом, т.е. количеством 1, равных m или, соответственно, n.
Необходимо построить алгоритм вычисления m+n. Зададим алфавит машины Тьюринга:
Страница 10 из 45