Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Занятие 4 Количество информации.doc
Скачиваний:
2
Добавлен:
17.11.2019
Размер:
73.22 Кб
Скачать

Информация. Количество информации. Единицы измерения количества информации.

    1. Понятие информации

Познавая окружающий мир, мы постоянно узнаём что – то новое о нём, иными словами – получаем информацию. В переводе с латинского языка слово информация означает « разъяснение, изложение, сведения».

Понятие информации по разному определяется в различных науках. В журналистике под информацией понимают сообщения, обладающие новизной. В технике связи – любую последовательность сигналов, которая хранится, передаётся или обрабатывается с помощью технических средств, не учитывая смысл этих сигналов. В теории информации - это сведения, которые снимают полностью или уменьшают существующую до их получения неопределённость. В кибернетике ( теории управления) под информацией понимают ту часть знаний , которая используется для ориентирования, активного действия, управления, то есть в целях сохранения, совершенствования, развития системы. Интересное определение даёт философия: « Информация – это отражённое многообразие» . В информатике же информацию рассматривают как продукт взаимодействия данных и методов их обработки, адекватных решаемой задаче.

    1. Виды информации

Существует несколько различных способов классификации информации. В таблице 1 представлена классификация по способу восприятия, по степени значимости и по форме представления.

Вид классификации

Классификация

По способу восприятия

  • Визуальная

  • Аудиальная

  • Обонятельная

  • Тактильная

  • Вкусовая

По степени значимости

Личная

  • Знания. Умения

  • Прогнозы, планы

  • Чувства, интуиция

  • Опыт, наследственная память

Специальная

  • Научная

  • Проозводственная

  • Техническая

  • Управленческая

Общественная

  • Общественно – политическая

  • Научно – популярная

  • Обыденная

  • Эстетическая

По форме представления

  • Текстовая

  • Числовая

  • Графическая

  • Звуковая

Таблица 1

    1. Свойства информации

Свойства информации представлены в таблице 2.

Объективность

Информация объективна, если она не зависит от чьего – то мнения или суждения.

Достоверность

Информация достоверна, если она отражает истинное положение дел.

Полнота

Информация полна, если её достаточно для понимания и принятия решения.

Актуальность

Информация актуальна ( своевременна) , если она важна существенна для настоящего времени.

Полезность

Полезность информации оценивается по тем задачам, которые мы можем решить с её помощью.

Понятность

Информация понятна, если она выражена на языке, доступном для получателя

    1. Количество информации

В теории информации за единицу количества информации принято такое количество информации, которое содержит сообщение, уменьшающее неопределённость знания в 2 раза. Такая единица называется бит.

В качестве примера рассмотрим игру « орёл или решка». На ровную поверхность бросают монету. С равной вероятностью монета окажется в одном из двух положений: «орёл» или «решка». Перед броском существует неопределённость нашего знания (возможны два события), и как упадёт монета предсказать невозможно. После броска наступает полная определённость, так как мы видим какой стороной упала монета. Это сообщение приводит к уменьшению неопределённости нашего знания ровно в два раза , так как из двух возможных равновероятных событий реализовалось одно. Следовательно, полученное в результате этого опыта количество информации равно 1 биту.

В вычислительной технике за единицу информации принимают наименьшую "порцию" памяти компьютера, необходимую для хранения одного из двух знаков "0" или "1", и такую единицу, также, называют бит.

Бит — слишком мелкая единица измерения. На практике чаще применяется более крупная единица —  байт,  равная  восьми битам. Широко используются также ещё более крупные производные единицы информации:

  • 1 Килобайт (Кбайт) = 1024 байт = 210 байт

  • 1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт

  • 1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт

  • 1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт

  • 1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт

Подход к информации как мере уменьшения неопределённости знания позволяет количественно измерять информацию.  В 1928 г. американский инженер Р. Хартли предложил научный подход к оценке сообщений. Предложенная им формула связывает число равновероятных событий N с количеством бит информации I в сообщении о том, что любое из этих N событий произошло, и имеет следующий вид:

N = 2I или          I=log2N

 В 1948 г. американский инженер и математик К Шеннон предложил формулу для вычисления количества информации для событий с различными вероятностями. Если I - количество информации, N - количество возможных событий, а рi - вероятности отдельных событий, то количество информации для событий с различными вероятностями можно определить по формуле:

I = - Sum (рi * log2 рi), где i принимает значения от 1 до N.

   В случае равновероятных событий рi= 1/N, и формулу Хартли можно рассматривать как частный случай формулы Шеннона:

            I = - Sum (1 / N *log2 (1 / N) ) = log2 N.

   При равновероятных событиях получаемое количество информации максимально.