
- •Основные понятия теории информатики
- •Процессы сбора, передачи и обработки информации
- •Информатика
- •Сигналы, данные, информация
- •Атрибутивные свойства информации
- •Формы представления информации
- •Показатели качества информации
- •Системы счисления
- •Позиционные системы счисления
- •Перевод чисел из одной системы счисления в другую
- •Меры и единицы количества и объема информации
- •Комбинаторный подход
- •Алфавитный подход
- •Статистический подход
- •Единицы измерения информации
- •Кодирование данных в эвм
- •Кодирование чисел
- •Кодовые таблицы
- •Кодирование растровых изображений
- •Основные понятия алгебры логики
- •Алгебра высказываний
- •Тождественные преобразования над высказываниями
- •Логические основы эвм
- •Технические средства реализации информационных процессов
- •История развития вычислительной техники
- •Архитектура эвм
- •Принцип физического разделения устройств хранения программ и данных от процессорного модуля.
- •Принципы работы вычислительной техники
- •Состав и назначение основных элементов персонального компьютера
- •Состав персонального компьютера
- •Центральный процессор
- •Системные шины и слоты расширения
- •Запоминающие устройства
- •Виды памяти
- •Внутренние запоминающие устройства
- •Внешние запоминающие устройства
- •Устройства ввода-вывода данных
- •Устройства ввода
- •Устройства вывода
- •Программные средства реализации информационных процессов
- •Классификация программного обеспечения
- •Операционные системы
- •Элементы пользовательского интерфейса ос Windows
- •Организация работы с файловой системой
- •Файловая система
- •Имена файлов
- •Атрибуты файлов
- •Операции с файлами и папками
- •Служебное (сервисное) обеспечение
- •Архиваторы
- •Диспетчер задач
- •Восстановление операционной системы
- •Драйверы
- •Обслуживание дисков
- •Технологии обработки текстовой информации
- •Основы пользовательского интерфейса
- •Открытие, создание и сохранение документов
- •Ввод данных
- •Форматирование
- •Дополнительные элементы оформления
- •Структура документа
- •Рецензирование
- •Подготовка к печати
- •Электронные таблицы
- •Рабочие книги, листы и ячейки
- •Оформление слайдов
- •Настройка анимации
- •Настройка показа презентации
- •Технологии обработки графической информации
- •Векторная и растровая графика
- •Форматы графических файлов
- •Цветовые модели
- •Инструменты графических редакторов
- •Базы данных и базы знаний
- •Базы данных
- •Общее понятие о базах данных
- •Модели данных
- •Реляционная модель базы данных
- •Объекты базы данных Access
- •Проектирование баз данных
- •Основные операции с данными
- •Базы знаний
- •Назначение и основы использования систем искусственного интеллекта
- •Нейронные сети
- •Определение базы знаний
- •Модели представления знаний
- •Экспертные системы
- •Сети эвм и защита информации
- •Локальные и глобальные сети эвм
- •Классификация вычислительных сетей
- •Топология вычислительной сети
- •Сетевые стандарты
- •Сетевые технологии обработки данных
- •Каналы связи
- •Передача данных в сети
- •Коммуникационное оборудование
- •Система адресации сети Интернет
- •Сервисы Интернета
- •Имя_пользователя@доменный_адрес_хоста
- •Программы для работы в сети Интернет
- •Поисковые системы Интернета
- •Основы защиты информации
- •Информационная безопасность
- •Идентификация и аутентификация
- •Управление доступом
- •Протоколирование и сетевой аудит
- •Экранирование
- •Шифрование
Меры и единицы количества и объема информации
Имеется несколько подходов, которые устанавливают количество информации в сообщении, при этом учитываются синтаксические и семантические характеристики информации.
Комбинаторный подход
Количество информации в комбинаторной мере – это число возможных комбинаций информационных элементов.
Размещениями
из n элементов по m
называются такие их соединения, которые
различаются друг от друга самими
элементами и их порядком. Например,
размещения их трех элементов А, В, С по
2: АВ, АС, ВС, ВА, СА, АС. Число всех размещений
из n различных элементов
по m равняется:
.
Перестановками из n элементов называются их соединения, отличающиеся друг от друга только порядком входящих в них элементов. Например, перестановки из трех элементов А, В, С: АВС, АСВ, ВСА, ВАС, САВ, СВА. Число перестановок из n элементов равняется n!.
Сочетаниями
из n элементов по m
называются их соединения, отличающиеся
друг от друга только самими элементами.
Например, сочетания из трех элементов
А, В, с по 2: АВ, АС, ВС. Число всех сочетаний
из n различных элементов
по m равняется
.
Алфавитный подход
Количество информации I, приходящееся на один символ сообщения. определяют по формуле Хартли:
I=log2N
где N – число возможных символов, которое может использоваться при передаче сообщения.
Например, при передаче символов русского алфавита, который содержит 33 буквы, количество информации будет равно I=log233=5,04. Это значит, что для кодирования 33-х букв требуется 6 бит.
Статистический подход
Статистический подход базируется на понятии энтропии и служит для оценки меры информационной неопределенности, учитывающей вероятность появления событий.
Количество информации определяется, как мера уменьшения неопределенности знаний о передаваемой информации.
Формула шеннона:
где N – число возможных символов, которое может использоваться при передаче сообщения;
pi – вероятность появления i-го символа в сообщении.
Количество информации, определяемое по формуле Шеннона, называют информационной энтропией. Энтропия при равенстве всех вероятностей имеет наибольшее значение, при этом формула Шеннона совпадает с формулой Хартли.
Единицы измерения информации
Минимальной единицей информации является бит.
Бит – это количество информации, которое можно записать в одном двоичном разряде. Двоичный разряд может принимать значение 1 или 0.
Байт равняется 8 битам. Один байт может принимать 256 различных значений, (т.е. можно закодировать 256 различных символов).
Более крупными единицами информации являются килобайты (К), мегабайты (М), гигабайты (Г) и терабайты (Т). По определению: 1 килобайт = 1024 байт.
1 Кбайт = 210 байт = 1024 байт.
1 Мбайт = 220 байт = 1024 Кбайт.
1 Гбайт = 230 байт = 1024 Мбайт.
1 Тбайт = 240 байт = 1024 Гбайт.
Кодирование данных в эвм
Кодирование чисел
Для кодирования чисел используются 1, 2, 4, 8, 16 байт. Если число представляется на внутримашинном уровне, то на его хранение отводятся, по крайней мере, два байта.
При хранении чисел один бит (крайний левый) отводится под знак числа.
В вычислительной технике, с целью упрощения выполнения арифметических операций, применяют специальные коды (прямой, обратный и дополнительный). За счет этого облегчается определение знака результата вычисления арифметической операции, а операция вычитания чисел сводится к арифметическому сложению. Положительные числа хранятся в прямом коде, а отрицательные числа в дополнительном.
Прямой двоичный код – это такое представление двоичного числа, при котором знак плюс кодируется нулем в старшем разряде числа, а знак минус - единицей. При этом знаковый разряд называется знаковым.
Например, числа +510 и ‑510, представленные в прямом четырехразрядном коде, выглядят так: +510 = 0.1012; ‑510 = 1.1012. Здесь точка условно отделяет знаковые разряды.
Обратный код для отрицательных чисел получается из прямого кода с помощью инверсии, при которой единицы незнаковых разрядов заменяются нулями, а нули заменяются единицами. Например, ‑510 число в обратном коде выглядит так ‑510 = 1.0102.
Дополнительный код для отрицательных чисел получается из обратного кода добавлением единицы к младшему разряду кода. Например, число ‑510 в обратном коде выглядит так 1.0112.
Для положительных чисел прямой, обратный и дополнительный коды совпадают.
Для дробных чисел используется формат хранения с плавающей точкой. При этом число предварительно преобразуется в нормализованную форму.
N=m*qp,
где m(<1) – мантисса числа;
q – основание системы счисления;
p – порядок числа.
Пусть дано число в десятичной системе счисления 12,375. Преобразуем его в нормальную форму: 12,375 = 0,12375*102.
Пусть дано число в двоичной системе счисления 1100, 011. Преобразуем его в нормальную форму: 1100,011 = 0,1100011*2100.
При хранении дробных чисел часть битов отводится для мантиссы числа, часть – для хранения порядка числа, а в крайнем левом бите хранится знак.
Мантисса числа выражается в прямом коде, как для положительных, так и для отрицательных чисел. Различие проявляется только в значении знакового разряда.