Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лекция_№1_информатика.doc
Скачиваний:
5
Добавлен:
07.05.2019
Размер:
346.62 Кб
Скачать
  1. Определение терминов «Информатика» и «Информация».

Единицы измерения объема сообщения и количества информации.

Информатика [Informatics, Information science, computer science]– наука, изучающая вопросы возникновения, получения, хранения, преобразования (обработки), передачи и использования информации. Термин «информатика» получил в настоящее время множество толкований, и не все они однозначны . В частности, имеются более широкие толкования данного термина как науки, изучающей информационные процессы и системы в социальной среде, их роль и механизм воздействия на человеческую практику, усиление этого воздействия с помощью вычислительной техники. Отдельные же толкования термина ограничивают данное понятие сугубо технологическими процессами в части сбора, преобразования, хранения, поиска и распространения документальной информации с помощью современных технических средств.

Информация (этот термин как техническая величина введён Клодом Шенноном в середине XX века) – сведения об объекте в виде последовательности символических обозначений (букв, цифр и пр.), представленных в вводимом в компьютер виде. Информация (в соответствии с определением Шеннона) – это то, что увеличивает степень знания об интересующем объекте и, соответственно, снижает степень неопределённости (энтропии) знаний об этом объекте.

Свойства информации – достоверность, полнота, актуальность, ясность, ценность.

Информационные процессы действия, выполняемые с информацией.

Информационные ресурсы – документы и массивы документов в информационных системах: библиотеках, архивах, фондах и банках данных.

Данные в ЭВМ – информация, представленная в виде набора символов и знаков для обработки с помощью ЭВМ.

Единицы измерения объёма информации в вычислительных машинах:

бит [от англ. Bit – binary digit – двоичная цифра] имеет значения 0 или 1. Бит – наименьшая единица информации, соответствующая физическому эффекту наличия или отсутствия информации в точке электронной схемы (есть напряжение в точке или нет напряжения, есть импульс в нужный момент времени или нет импульса, есть ток в проводнике или нет тока);

байт (сокращенно – б )– единица информации, соответствующая комбинации символов (0 или 1) из 8 бит. С помощью 8 бит можно составить вариантов восьмиразрядных слов.

При работе с большими объемами информации в ЭВМ неудобно оперировать единицей информации в 1 байт (1б). Целесообразнее пользоваться масштабным коэффициентом 210, аналогичной десятичной системе счисления K=103. Тогда:

1 байт = 8 бит = 23 бит;

1 Кбайт ( один килобайт) = 210 байт = 1024 байт =213 бит ;

1 Мбайт ( один мегабайт) = 220 байт= 1024 Кбайт =223 бит ;

1 Гбайт ( один гигабайт) = 230 байт = 1024 Мбайт =233 бит;

1 Тбайт (один терабайт) = 240 байт = 1024 Гбайт =243 бит;

1 Пбайт (один петабайт) = 250 байт =1024 Тбайт=253 бит ;

1 Эбайт (один экзабайт) = 1024 Пбайт; 1 Збайт (один зетабайт) = 1024 Эбайт; 1 Йбайт (один йотабайт) = 1024 Збайт.

Формула Хартли (1928 г.) для определения количества информации: количество информации I, содержащееся в N равновероятных сообщениях (вариантах события), определяется выражением:;

[бит],

где n – длина одного сообщения; q – количество букв алфавита, используемого для передачи информации;

Формула Шеннона (1948 г.) для определения количества информации учитывает в отличие от формулы Хартли неодинаковую вероятность появления сообщений в наборе. При этом предполагается, что в сообщении тем больше информации, чем меньше вероятность его появления в этом наборе:

[бит],

где N – количество сообщений в наборе.

Энтропия – мера неопределённости, измеряется вероятностью наступления одного из N возможных событий. Если вероятность наступления одного из них становится равной 1, то неопределённость отсутствует (вероятность остальных равна 0). Энтропия в информатике - степень неполноты, неопределённости знаний.