Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
1 семестр у Рюмшина / Информация_БИК2401_ОТЧЁТ.docx
Скачиваний:
1
Добавлен:
18.12.2025
Размер:
46.19 Кб
Скачать
    1. Пример с подбрасыванием монеты

Рассмотрим пример с подбрасыванием монеты. Если монета симметрична, то вероятность выпадения орла или решки равна 0,5. Сообщение о результате подбрасывания монеты устраняет неопределенность, и количество информации в этом сообщении составляет 1 бит. Этот пример иллюстрирует базовый принцип измерения информации: чем больше неопределенность, тем больше информации содержится в сообщении. Если монета несимметрична и вероятность выпадения орла равна 0,9, то количество информации в сообщении о результате подбрасывания будет меньше. В этом случае неопределенность события снижается, так как один из исходов более вероятен. Таким образом, количество информации зависит не только от числа возможных исходов, но и от их вероятностей. Этот принцип лежит в основе формулы Шеннона для вычисления информации, которая учитывает вероятности всех возможных исходов.

    1. Вклад Клода Шеннона в теорию информации

Клод Шеннон внес огромный вклад в развитие теории информации, предложив математическую модель для измерения и передачи информации. Его работа "Математическая теория связи" (1948) заложила основы современной теории информации. Шеннон ввел понятие энтропии как меры неопределенности и разработал формулы для вычисления количества информации в сообщении. Он также предложил использовать бит как единицу измерения информации, что стало стандартом в компьютерных науках. Шеннон разработал теорию кодирования, которая позволяет эффективно передавать информацию через каналы связи с помехами.

Алфавитный подход к измерению информации основан на идее, что информация может быть представлена в виде последовательности символов из некоторого алфавита. Этот подход широко используется в компьютерных системах, где информация кодируется с помощью двоичного алфавита (0 и 1). В рамках алфавитного подхода информация рассматривается как последовательность символов, каждый из которых несет определенное количество информации. Объем информации в сообщении зависит от количества символов в алфавите и длины сообщения. Чем больше символов в алфавите, тем больше информации может быть закодировано в одном символе.

    1. Определение алфавита и его мощности

Алфавит – это набор символов, используемых для представления информации. Мощность алфавита – это количество символов в нем.

Например, мощность двоичного алфавита равна 2, а мощность английского алфавита – 26. Мощность алфавита является важным параметром при измерении информации, так как она определяет количество информации, которое может быть закодировано в одном символе. Чем больше мощность алфавита, тем больше информации может быть передано с помощью одного символа.

Увеличение мощности алфавита также приводит к увеличению объема памяти, необходимого для хранения информации.

    1. Формулы для вычисления информации в тексте

Для вычисления объема информации в тексте используется формула:

,

где I – количество информации в битах, n – количество символов в тексте, а m – мощность алфавита. Формула позволяет рассчитать объем информации на основе количества символов и мощности алфавита. Например, если текст состоит из 100 символов, а мощность алфавита равна 26, то объем информации в тексте составит: