Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Отчёт_Введение_в_ИТ_пара_V2.docx
Скачиваний:
0
Добавлен:
13.05.2026
Размер:
49.04 Кб
Скачать

Содержание

Y

СПИСОК ИСПОЛНИТЕЛЕЙ 1

РЕФЕРАТ 2

СОВРЕМЕННЫЕ ИНФОРМАЦИОННЫЕ СИСТЕМЫ 5

РАЗДЕЛ 1: КОЛИЧЕСВТО ИНФОРМАЦИИ. ФОРМУЛА ХАРТЛИ И ШЕННОНА 5

1.1 Количество информации 5

1.2 Подходы к определению количества информации. Формула Хартли и Шеннона 6

РАЗДЕЛ 2: СИСТЕМЫ СЧИСЛЕНИЯ. АРИФМИТИЧЕСКИЕ ОПЕРАЦИИ В РАЗНЫХ СИТЕМАХ СЧИСЛЕНИЯ. ПРЕДСТАВЛЕНИЯ ОТРИЦАТЕЛЬНЫХ И ВЕЩЕСТВЕННЫХ ЧИСЕЛ 8

2.1 Системы счисления, их виды, история формирования. 8

2.3 Представление отрицательных и вещественных чисел 11

РАЗДЕЛ 3: ФОРМЫ ПРЕДСТАВЛЕНИЯ И ПЕРЕДАЧИ ИНФОРМАЦИИ 14

3.1 Формы представления информации 14

3.2 Формы передачи информации 14

РАЗДЕЛ 4: КОДИРОВАНИЕ ТЕКСТОВЫХ ДАННЫХ 14

ЗАКЛЮЧЕНИЕ 14

СПИСОК ИСТОЧНИКОВ 14

Введение современные информационные системы раздел 1: количесвто информации. Формула хартли и шеннона

    1. Количество информации

Количеством информации называют числовую характеристику сигнала, отражающую ту степень неопределенности (неполноту знаний), которая исчезает после получения сообщения в виде данного сигнала. Эту меру неопределенности в теории информации называют энтропией.

Если в результате получения сообщения достигается полная ясность в каком-то вопросе, говорят, что была получена полная или исчерпывающая информация и необходимости в получении дополнительной информации нет. И, наоборот, если после получения сообщения неопределенность осталась прежней, значит, информации получено не было (нулевая информация).

Приведенные рассуждения показывают, что между понятиями информация, неопределенность и возможность выбора существует тесная связь. Так, любая неопределенность предполагает возможность выбора, а любая информация, уменьшая неопределенность, уменьшает и возможность выбора. При полной информации выбора нет. Частичная информация уменьшает число вариантов выбора, сокращая тем самым неопределенность.

1.2 Подходы к определению количества информации. Формула Хартли и Шеннона

Американский инженер Ральф Хартли в 1928 году рассмотрел процесс получения информации как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определил как двоичный логарифм от N [2]. Формула Хартли:

Где, N – это количество возможных событий;

i – это ближайшая к указанному числу степень двойки;

I – это количество информации.

Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется:

Таким образом, сообщение о верно угаданном числе содержит приблизительно 6,644 единицы информации [2].

Американский учёный Клод Шеннон в 1948 году предложил другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе [2]. Формула Шеннона:

Где, I – количество информации;

N – количество возможных событий;

– вероятность i-ого события.

Легко заметить, что если вероятности равны между собой, то каждая из них равна , и формула Шеннона превращается в формулу Хартли [1].

Помимо двух рассмотренных подходов к определению количества информации, существуют и другие. Важно помнить, что любые теоретические результаты применимы лишь к определённому кругу случаев, очерченному первоначальными допущениями [1].

В качестве единицы информации Клод Шеннон предложил принять один бит (от англ. «bit» – «binary digit» – «двоичная цифра»). Бит в теории информации – количество информации, необходимое для различения двух равновероятных сообщений (типа «орел» – «решка», «чёт» – «нечёт» и т.п.). В вычислительной технике, битом называют наименьшую «порцию» памяти компьютера, необходимую для хранения одного из двух знаков «0» или «1», используемых для внутримашинного представления данных и команд [1].

Бит – слишком маленькая единица измерения. На практике чаще применяется более крупная единица – байт (1 байт равен 8-ми битам). Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера [2].

Широко используются более крупные производные единицы информации [7]:

По системе СИ

По системе МЭК 1

Название

Сокращение

Значение

Название

Сокращение

Значение

байт

Б

байт

Б

килобайт

Кбайт

кибибайт

КиБ

мегабайт

Мбайт

мебибайт

МиБ

гигабайт

Гбайт

гибибайт

ГиБ

терабайт

Тбайт

тебибайт

ТиБ

петабайт

Пбайт

пебибайт

ПиБ

Соседние файлы в предмете Введение в информационные технологии