- •3 Задание по теме «Системы счисления». 40
- •4 Задание по теме «Алгебра логики». 41
- •Введение.
- •Что изучает информатика Информация, хранение информации
- •Алфавиты. Кодирование
- •Передача информации
- •Алфавитный подход
- •Единицы измерения количества информации
- •Количество информации как мера уменьшения неопределенности
- •Модели решения функциональных и вычислительных задач.
- •Информационная модель объекта
- •Степень детализации моделей
- •Избыточность и противоречивость моделей
- •Отношения объектов
- •Системы
- •Статические и динамические модели систем
- •Виды моделей
- •Табличные модели
- •Сетевые модели. Графы
- •Иерархические системы. Деревья
- •Основные этапы информационного моделирования
- •Системы счисления. Позиционные и непозиционные системы счисления
- •Представление целых неотрицательных чисел
- •Представление отрицательных и дробных чисел
- •Перевод чисел из произвольной системы счисления в десятичную с/с.
- •Перевод чисел из десятичной системы счисления в произвольную с/с.
- •Перевод чисел из одной произвольной системы в другую
- •Перевод чисел в систему счисления с кратным основанием
- •Арифметические действия с числами в одной системе счисления.
- •Общие принципы работы компьютера. Архитектура компьютера.
- •Представление целых чисел
- •Представление вещественных чисел
- •“Фиксированная” и “плавающая” запятая в записи чисел
- •Представление текста в памяти компьютера
- •Основные устройства компьютера Запоминающие устройства
- •Центральный процессор
- •Устройства ввода-вывода
- •Шина данных и адресная шина
- •Виды современных компьютеров. Персональные компьютеры
- •Портативные персональные компьютеры
- •Серверы
- •Суперкомпьютеры
- •Алгебра логики. Основные логические операции
- •Правила применения основных логических операций. Обозначения.
- •1) Скобки, 2) отрицание, 3) логическое умножение (&), 4) логическое сложение (V).
- •Булевский тип
- •Преобразование выражений.
- •Законы логики и упрощение логических выражений
- •Логические схемы
- •Рекомендации по выполнению контрольной работы.
- •Ссылки на использованные источники
- •Список использованных источников
- •Требования к выполнению и оформлению контрольных работ по информатике
- •Задания контрольной работы. 15 вариантов.
- •1 Задание.
- •2 Задание.
- •3 Задание по теме «Системы счисления». Выполнить задания.
- •4 Задание по теме «Алгебра логики».
- •Литература:
- •Содержание
- •3 Задание по теме «Системы счисления». 40
- •4 Задание по теме «Алгебра логики». 41
Передача информации
Передача, хранение и обработка информации представляют собой информационные процессы, протекающие в социальных, биологических и технических системах.
Передача информации производится путем посылки сообщений, которые, в свою очередь передаются сигналами, способными распространяться в различных физических средах. В компьютерной технике сообщения передаются с помощью электрических сигналов. Если есть физическая возможность передать сигнал от источника к приемнику, то говорят, что между ними существует канал связи. Основными характеристиками канала связи являются надежность передачи информации и его пропускная способность, то есть скорость передачи информации по каналу.
Пропускная способность канала – это отношение количества переданной информации ко времени, затраченному на передачу. Она измеряется в битах в секунду (бод) и кратных единицах:
1 байт /с = 23 бит/с = 8 бит/с
1 Кбит/с = 210 бит/с = 1024 бит/с
1 Мбит/с = 210 Кбит/с = 1024 Кбит/с = 1 048 576 бит/с и так далее.
Пример 1. Пусть по каналу передается 30 Кбит информации за 13 сек. Найдем пропускную способность канала. По определению она равна отношению количества переданной информации ко времени, затраченному на передачу, или 30 Кбит/13 сек = 2,307 Кбит/с
Пример 2. Пусть по каналу с пропускной способностью 2048 бит/с требуется передать 2Кбайта информации. Определим время, необходимое для передачи. Оно равно
2Кбайта / 2048 бит/с =2*1024*8 /2048[ бит / бит/с ] =8 сек.
Алфавитный подход
Если информация представлена в виде дискретного сообщения, то логично считать количеством информации его длину, то есть общее число знаков в сообщении. Но длина сообщения зависит не только от содержащейся в нем информации. На нее влияет мощность алфавита используемого языка. Чем меньше знаков в используемом алфавите, тем длиннее сообщение. Так, например, в алфавите азбуки Морзе всего три знака (точка, тире, пауза), поэтому для кодирования каждой буквы нужно использовать несколько знаков, и текст, закодированный по Морзе, будет намного длиннее, чем при обычной записи.
Пример: (SOS) - 3 знака в латинском алфавите;
(··· пауза – – – пауза ···) – это же слово из11 знаков в алфавите Морзе:
Для упорядочивания измерений информационный объем сообщений принято измерять в битах. Один бит соответствует одному знаку двоичного алфавита. Итак, чтобы измерить длину сообщения, его нужно представить в двоичном виде и подсчитать количество двоичных знаков – битов.
Пример: Сообщение в двоичном алфавите выглядит следующим образом:
00010110010001.
Мы не знаем, какая информация была заложена в этом сообщении, но его длина - 14 двоичных знаков, т.е. информационный объем 14 бит.
Такой способ измерения количества информации называется алфавитным подходом. При этом измеряется не содержание информации с точки зрения его новизны и полезности, а размер несущего информацию сообщения. При алфавитном подходе к определению количества информации одни и те же сведения, закодированные по-разному, будут иметь различный информационный объем. Сообщения одинаковой длины могут нести совершенно как совершенно бесполезные сведения, так и нужную информацию.
Пример: Применяя алфавитный подход, получаем, что информационный объем слов “лпгнорьтлпа” и “информатика” совершенно одинаков, а слов “кино” и “кинофильм” – различен.
Если алфавит содержит 2n знаков, то каждый из его знаков можно закодировать с помощью n знаков двоичного алфавита. Таким образом, объем информации, содержащейся в сообщении длиной m при использовании алфавита мощностью 2n , равен m·n бит.
Пример: Найдем информационный объем слова SOS, записанного в компьютерной кодировке. При кодировании букв в компьютере используется либо алфавит ASCII (American Standard Code for Information Interchange — американский стандартный код обмена информацией), состоящий из 28=256 знаков (один знак можно закодировать с помощью 8 знаков двоичного алфавита или 8 бит), либо алфавит Unicode, мощность которого 216 = 65536 (16 бит один знак). В слове SOS три буквы, следовательно, его информационный объем 3·8=24 бит в кодировке ASCII или 3·16 = 48 бит в кодировке Unicode.
Алфавитный подход удобен при подсчете количества информации, хранимого, передаваемого и обрабатываемого техническими устройствами, потому что компьютеры, принтеры, модемы работают не с самой информацией, а с ее представлением в виде сообщений.
