- •«Радио и телевидение»
- •Список исполнителей
- •Реферат
- •Содержание
- •Введение современные информационные системы раздел 1: количесвто информации. Формула хартли и шеннона
- •Количество информации
- •1.2 Подходы к определению количества информации. Формула Хартли и Шеннона
- •Раздел 2: системы счисления. Арифмитические операции в разных ситемах счисления. Представления отрицательных и вещественных чисел
- •2.1 Системы счисления, их виды, история формирования.
- •2.2 Арифметические операции в различных системах счисления
- •2.3 Представление отрицательных и вещественных чисел
- •Москва 2022
Содержание
Y
СПИСОК ИСПОЛНИТЕЛЕЙ 1
РЕФЕРАТ 2
СОВРЕМЕННЫЕ ИНФОРМАЦИОННЫЕ СИСТЕМЫ 5
РАЗДЕЛ 1: КОЛИЧЕСВТО ИНФОРМАЦИИ. ФОРМУЛА ХАРТЛИ И ШЕННОНА 5
1.1 Количество информации 5
1.2 Подходы к определению количества информации. Формула Хартли и Шеннона 6
РАЗДЕЛ 2: СИСТЕМЫ СЧИСЛЕНИЯ. АРИФМИТИЧЕСКИЕ ОПЕРАЦИИ В РАЗНЫХ СИТЕМАХ СЧИСЛЕНИЯ. ПРЕДСТАВЛЕНИЯ ОТРИЦАТЕЛЬНЫХ И ВЕЩЕСТВЕННЫХ ЧИСЕЛ 8
2.1 Системы счисления, их виды, история формирования. 8
2.3 Представление отрицательных и вещественных чисел 11
РАЗДЕЛ 3: ФОРМЫ ПРЕДСТАВЛЕНИЯ И ПЕРЕДАЧИ ИНФОРМАЦИИ 14
3.1 Формы представления информации 14
3.2 Формы передачи информации 14
РАЗДЕЛ 4: КОДИРОВАНИЕ ТЕКСТОВЫХ ДАННЫХ 14
ЗАКЛЮЧЕНИЕ 14
СПИСОК ИСТОЧНИКОВ 14
Введение современные информационные системы раздел 1: количесвто информации. Формула хартли и шеннона
Количество информации
Количеством информации называют числовую характеристику сигнала, отражающую ту степень неопределенности (неполноту знаний), которая исчезает после получения сообщения в виде данного сигнала. Эту меру неопределенности в теории информации называют энтропией.
Если в результате получения сообщения достигается полная ясность в каком-то вопросе, говорят, что была получена полная или исчерпывающая информация и необходимости в получении дополнительной информации нет. И, наоборот, если после получения сообщения неопределенность осталась прежней, значит, информации получено не было (нулевая информация).
Приведенные рассуждения показывают, что между понятиями информация, неопределенность и возможность выбора существует тесная связь. Так, любая неопределенность предполагает возможность выбора, а любая информация, уменьшая неопределенность, уменьшает и возможность выбора. При полной информации выбора нет. Частичная информация уменьшает число вариантов выбора, сокращая тем самым неопределенность.
1.2 Подходы к определению количества информации. Формула Хартли и Шеннона
Американский инженер Ральф Хартли в 1928 году рассмотрел процесс получения информации как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определил как двоичный логарифм от N [2]. Формула Хартли:
Где, N – это количество возможных событий;
i – это ближайшая к указанному числу степень двойки;
I – это количество информации.
Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется:
Таким образом, сообщение о верно угаданном числе содержит приблизительно 6,644 единицы информации [2].
Американский учёный Клод Шеннон в 1948 году предложил другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе [2]. Формула Шеннона:
Где, I – количество информации;
N – количество возможных событий;
– вероятность
i-ого
события.
Легко
заметить, что если вероятности
равны
между собой, то каждая из них равна
,
и формула Шеннона превращается в формулу
Хартли [1].
Помимо двух рассмотренных подходов к определению количества информации, существуют и другие. Важно помнить, что любые теоретические результаты применимы лишь к определённому кругу случаев, очерченному первоначальными допущениями [1].
В качестве единицы информации Клод Шеннон предложил принять один бит (от англ. «bit» – «binary digit» – «двоичная цифра»). Бит в теории информации – количество информации, необходимое для различения двух равновероятных сообщений (типа «орел» – «решка», «чёт» – «нечёт» и т.п.). В вычислительной технике, битом называют наименьшую «порцию» памяти компьютера, необходимую для хранения одного из двух знаков «0» или «1», используемых для внутримашинного представления данных и команд [1].
Бит – слишком маленькая единица измерения. На практике чаще применяется более крупная единица – байт (1 байт равен 8-ми битам). Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера [2].
Широко используются более крупные производные единицы информации [7]:
По системе СИ |
По системе МЭК 1 |
|||||
Название |
Сокращение |
Значение |
Название |
Сокращение |
Значение |
|
байт |
Б |
|
байт |
Б |
|
|
килобайт |
Кбайт |
|
кибибайт |
КиБ |
|
|
мегабайт |
Мбайт |
|
мебибайт |
МиБ |
|
|
гигабайт |
Гбайт |
|
гибибайт |
ГиБ |
|
|
терабайт |
Тбайт |
|
тебибайт |
ТиБ |
|
|
петабайт |
Пбайт |
|
пебибайт |
ПиБ |
|
|
