
- •История развития вычислительной техники
- •История развития вычислительной техники
- •1.2. Поколения компьютеров (в соответствии с развитием элементной базы):
- •1.3. Классификация эвм
- •Определение терминов «Информатика» и «Информация».
- •Примеры решения задач на вычисление объема сообщения
- •Элементарные основы булевой алгебры (алгебры логики). Примеры построения логических схем на элементах интегральной логики
- •4.2. Таблица истинности для логического элемента «или»:
- •4.3. Таблица истинности для логического элемента «не» (схема инверии):
- •4.4. Инверсия функции конъюнкции. Операция 2и-не (штрих Шеффера)
- •4.5. Инверсия функции дизъюнкции. Операция 2или-не (стрелка Пирса)
- •4.7. Элемент памяти на основе триггера
Определение терминов «Информатика» и «Информация».
Единицы измерения объема сообщения и количества информации.
Информатика [Informatics, Information science, computer science]– наука, изучающая вопросы возникновения, получения, хранения, преобразования (обработки), передачи и использования информации. Термин «информатика» получил в настоящее время множество толкований, и не все они однозначны . В частности, имеются более широкие толкования данного термина как науки, изучающей информационные процессы и системы в социальной среде, их роль и механизм воздействия на человеческую практику, усиление этого воздействия с помощью вычислительной техники. Отдельные же толкования термина ограничивают данное понятие сугубо технологическими процессами в части сбора, преобразования, хранения, поиска и распространения документальной информации с помощью современных технических средств.
Информация (этот термин как техническая величина введён Клодом Шенноном в середине XX века) – сведения об объекте в виде последовательности символических обозначений (букв, цифр и пр.), представленных в вводимом в компьютер виде. Информация (в соответствии с определением Шеннона) – это то, что увеличивает степень знания об интересующем объекте и, соответственно, снижает степень неопределённости (энтропии) знаний об этом объекте.
Свойства информации – достоверность, полнота, актуальность, ясность, ценность.
Информационные процессы – действия, выполняемые с информацией.
Информационные ресурсы – документы и массивы документов в информационных системах: библиотеках, архивах, фондах и банках данных.
Данные в ЭВМ – информация, представленная в виде набора символов и знаков для обработки с помощью ЭВМ.
Единицы измерения объёма информации в вычислительных машинах:
бит [от англ. Bit – binary digit – двоичная цифра] имеет значения 0 или 1. Бит – наименьшая единица информации, соответствующая физическому эффекту наличия или отсутствия информации в точке электронной схемы (есть напряжение в точке или нет напряжения, есть импульс в нужный момент времени или нет импульса, есть ток в проводнике или нет тока);
байт (сокращенно
– б )–
единица информации, соответствующая
комбинации символов (0 или 1) из 8 бит. С
помощью 8 бит можно составить
вариантов восьмиразрядных слов.
При работе с большими объемами информации в ЭВМ неудобно оперировать единицей информации в 1 байт (1б). Целесообразнее пользоваться масштабным коэффициентом 210, аналогичной десятичной системе счисления K=103. Тогда:
1 байт = 8 бит = 23 бит;
1 Кбайт ( один килобайт) = 210 байт = 1024 байт =213 бит ;
1 Мбайт ( один мегабайт) = 220 байт= 1024 Кбайт =223 бит ;
1 Гбайт ( один гигабайт) = 230 байт = 1024 Мбайт =233 бит;
1 Тбайт (один терабайт) = 240 байт = 1024 Гбайт =243 бит;
1 Пбайт (один петабайт) = 250 байт =1024 Тбайт=253 бит ;
1 Эбайт (один экзабайт) = 1024 Пбайт; 1 Збайт (один зетабайт) = 1024 Эбайт; 1 Йбайт (один йотабайт) = 1024 Збайт.
Формула Хартли (1928 г.) для определения количества информации: количество информации I, содержащееся в N равновероятных сообщениях (вариантах события), определяется выражением:;
[бит],
где n – длина одного сообщения; q – количество букв алфавита, используемого для передачи информации;
Формула Шеннона
(1948 г.)
для определения количества информации
учитывает
в отличие от формулы Хартли неодинаковую
вероятность
появления сообщений в наборе. При этом
предполагается, что в
сообщении тем больше информации, чем
меньше вероятность его появления в этом
наборе:
[бит],
где N – количество сообщений в наборе.
Энтропия – мера неопределённости, измеряется вероятностью наступления одного из N возможных событий. Если вероятность наступления одного из них становится равной 1, то неопределённость отсутствует (вероятность остальных равна 0). Энтропия в информатике - степень неполноты, неопределённости знаний.