
- •Единицы измерения количества информации
- •Формула Хартли
- •Формула Шеннона
- •Алфавитный подход к измерению количества информации
- •Приближение равной вероятности символов в тексте
- •«Без труда не вытащишь рыбку из пруда.»
- •Приближение разной вероятности встречаемости символов в тексте
- •Частотный словарь русского языка – словарь вероятностей (частот) появления букв в произвольном тексте – приведен ниже. Определите, какое количество информации несет каждая буква этого словаря.
- •Содержательный подход
- •Неравновероятные события (вероятностный подход)
- •Пример 4. В корзине лежат 32 клубка шерсти, из них 4 красных. Сколько бит информации несет сообщение о том, что достали клубок красной шерсти?
- •Задачи для самостоятельного решения
Слово «информация» происходит от латинского слова information, что в переводе означает сведения, разъяснение, ознакомление.
Под «информацией» понимаются сведения (данные), которые воспринимаются живым существом или устройством и сообщаются (получаются, передаются, преобразуются, сжимаются, разжимаются, теряются, находятся, регистрируются) с помощью знаков.
Информация по-разному трактуется и изучается в различных областях знания.
Информация в кибернетике. В кибернетике (науке об управлении) понятие «информация» связано с процессами управления в сложных системах (живых организмах или технических устройствах). Жизнедеятельность любого организма или нормальное функционирование технического устройства зависит от процессов управления, благодаря которым поддерживаются в необходимых пределах значения их параметров. Процессы управления включают в себя получение, хранение, преобразование и передачу информации.
Виды информации (Босова Л. Л., 8 кл.)
визуальная (с помощью органов зрения мы воспринимаем буквы, цифры, рисунки, различаем цвет, форму, размеры и расположение предметов);
аудиальная (с помощью органов слуха воспринимается звуковая информация – речь, музыка, звуковые сигналы, шум);
обонятельная (с помощью органов обоняния люди получают информацию о запахах окружающего мира);
вкусовая (с помощью вкусовых рецепторов языка можно получить информацию о том, каков предмет – горький, кислый, сладкий, соленый);
тактильная (органы осязания (кончики пальцев и весь кожный покров) дают человеку информацию о температуре предмета, о качестве его поверхности).
Свойства информации (Босова Л. Л., 8 кл.)
Объективность – И не зависит от чьего-либо мнения, суждения. Объективную И можно получить с помощью исправных датчиков, измерительных приборов. Но, отражаясь в сознании конкретного человека, И перестает быть объективной.
Д
остоверность – И отражает истинное положение дел. Недостоверной информация может быть: в случае преднамеренного искажения; в результате воздействия помех; при преуменьшении или преувеличении значения реального факт.
Полнота – И достаточно для понимания ситуации и принятия решения.
Актуальность – И важная, существенная для настоящего времени. Только своевременно полученная информация может принести необходимую пользу.
Полезность – И оценивается по тем задачам, которые можно решить с ее помощью. Оценка полезности И всегда субъективна.
Понятность – И выражена на языке, доступном для получателя.
Процессы, связанные с изменением информации или действиями с использованием информации, называют информационными процессами. Выделяют следующие: процессы сбора, обработки, накопления, хранения, поиска и распространения информации.
Защита информации. В жизни человека информация играет очень важную роль. От нее зависит принятие решений, влияющих на развитие общества.
Для предотвращения потери информации разрабатываются различные механизмы ее защиты, которые используются на всех этапах работы с ней.
Для защиты используют различные способы защиты:
контроль доступа;
разграничение доступа;
дублирование каналов связи;
криптографическое преобразование информации с помощью шифров.
Количество информации как мера уменьшения неопределенности знания
Получение информации можно связать с уменьшением неопределенности знания. Это позволяет количественно измерять информацию, что чрезвычайно важно для информатики. Рассмотрим вопрос об определении количества информации более подробно на конкретных примерах.
Пусть у нас имеется монета, которую мы бросаем на ровную поверхность. С равной вероятностью произойдет оно из двух возможных событий – монета окажется в одном из двух положений: «орел» или «решка».
Можно говорить, что события равновероятны, если при возрастающем числе опытов количества выпадений «орла» и «решки» постепенно сближается. Например, если мы бросим монету 10 раз, то «орел» может выпасть 7 раз, а «решка» – 3 раза, если бросим монету 100 раз, то «орел» может выпасть 60 раз, а «решка» – 40 раз, если бросим монету 1000 раз, то «орел» может выпасть 520 раз, а «решка» – 480 и т.д. В итоге при очень большой серии опытов количества выпадений «орла» и «решки» практически сравняются.
Перед броском существует неопределенность нашего знания (возможны два события), и как упадет монета, предсказать невозможно. После броска наступает полная определенность, так как мы видим (получаем зрительное сообщение), что монета в данный момент находится в определенном положении (например, «орел»). Это сообщение приводит к уменьшению неопределенности нашего знания в два раза, так как из двух возможных равновероятных событий реализовалось одно.
Чем больше количество возможных событий, тем больше начальная неопределенность нашего знания и соответственно тем больше количество информации будет содержать сообщение о результатах опыта.
Единицы измерения количества информации
За единицу количества информации принимается такое количество информации, которое содержит сообщение, уменьшающее неопределенность знания в два раза. Такая единица названа бит.
Минимальной единицей измерения информации является бит, а следующей по величине единицей – байт, причем
1 байт = 23 бит = 8 бит
Так кратные байту единицы измерения количества информации вводятся следующим образом:
1Кбайт = 210 байт = 1024 байт;
1Мбайт = 210 Кбайт = 1024 Кбайт;
1Гбайт = 210 Мбайт = 1024 Мбайт;
1Терабайт (Тб) = 210 Гбайт =1024 Гбайт;
1Петабайт (Пб) = 210 Тбайт = 1024 Тбайт.
Задачи для самостоятельного решения (Босова Л. Л., 8 кл.)
Выразите объем информации в различных единицах, заполняя таблицу:
Бит
Байт
Кбайт
1
1536
16384
2560
215
23
Расположите величины в порядке убывания: 1024 бита, 1000 байтов, 8 бит, 1 байт, 10 Кбайт.
Расположите величины в порядке возрастания: 1010 байтов, 2 байта, 1 Кбайт, 20 битов, 10 битов.
Сколько Кбайт информации содержит сообщение следующего объема: 216 битов, 216 байтов, ¼ Мбайт, 1/512 Гбайт?
Информационный объем одного сообщения составляет 0,5 Кбайт, а другого – 500 байтов. На сколько битов информационный объем первого сообщения больше объема второго сообщения?
Информационный объем одного сообщения составляет 0,5 Кбайт, а другого – 128 битов. Во сколько раз информационный объем первого сообщения больше объема второго сообщения?
Заполните пропуски (степени двойки).
1 байт |
23 битов |
|
|
|
|
|
1 Кбайт |
2— битов |
210 байтов |
||||
1 Мбайт |
2— битов |
2— байтов |
210 Кбайт |
|||
1 Гбайт |
2— битов |
2— байтов |
2— Кбайт |
210 Мбайт |
||
1 Тбайт |
2— битов |
2— байтов |
2— Кбайт |
2— Мбайт |
210 Гбайт |
|
1 Пбайт |
2— битов |
2— байтов |
2— Кбайт |
2— Мбайт |
2— Гбайт |
210 Тбайт |
Найдите х.
а) 8х битов = 32 Кбайт; б)16х битов = 128 Кбайт.
Формула Хартли
В 1928 г. американский инженер Р. Хартли предложил научный подход к оценке сообщений. Предложенная им формула имела следующий вид:
I = log2 N ,
Где N - количество равновероятных событий; I - количество бит в сообщении, такое, что любое из N событий произошло. Тогда N =2I.
Иногда формулу Хартли записывают так:
I = log2 N = log2 (1 / р) = - log2 р,
т. к. каждое из К событий имеет равновероятный исход р = 1 / N, то К = 1 / р.