Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
1 семестр у Рюмшина / Информация.Способы представления и передачи.docx
Скачиваний:
1
Добавлен:
18.12.2025
Размер:
46.23 Кб
Скачать
    1. Вклад а. Н. Колмогорова

Андрей Колмогоров – советский математик, который внес огромный вклад в теорию информации, разработав алгоритмический подход к определению информации. Именно он предложил измерять информацию через сложность алгоритма, необходимого для ее воспроизведения.

Данный метод позволяет измерять информацию на основе сложности ее представления, а не на основе вероятностей или символов.

    1. Формула Хартли

Формула Хартли используется для вычисления количества информации в сообщении, когда все возможные исходы равновероятны. Она выражается следующим образом:

,

где I – количество информации в битах, а N – количество возможных исходов. Уравнение позволяет рассчитать количество информации на основе числа равновероятных исходов.

    1. Условия применения формулы Хартли

Формула Хартли применима только в случаях, когда все исходы события равновероятны. Обычно формула используется для вычисления информации в результате подбрасывания симметричной монеты или броска игрального кубика.

Но если исходы маловероятны, то для вычисления информации необходимо использовать более сложные методы, такие как формула Шеннона. Энтропия

Энтропия – это мера неопределенности или хаоса в системе. В информатике энтропия используется для анализа данных, сжатия информации и разработки алгоритмов.

Энтропия характеризует степень неупорядоченности системы. Чем выше энтропия, тем больше неопределенность и тем больше информации требуется для описания системы.

    1. Формула Шеннона для энтропии

Формула Шеннона для энтропии выглядит следующим образом:

,

где H – энтропия, pi​ – вероятность i-го символа. Формула позволяет рассчитать энтропию на основе вероятностей всех символов в сообщении. Например, если в тексте используются только два символа с вероятностями 0,5 и 0,5, то энтропия составит:

    1. Понятие избыточности и ее роль в передаче информации

Избыточность возникает, когда информация кодируется с использованием большего количества символов, чем необходимо. Вероятностный подход

Вероятностный подход к измерению информации основан на анализе вероятностей различных событий. Данный подход подход позволяет учитывать, что некоторые исходы могут быть более вероятными, чем другие. Количество информации в сообщении зависит от вероятности каждого символа. Чем меньше вероятность символа, тем больше информации он несет. Например, если в тексте часто встречается буква "е", то информация, содержащаяся в этой букве, будет меньше, чем в редкой букве "щ". Таким образом, вероятностный подход позволяет более точно измерять информацию, учитывая распределение вероятностей символов.

    1. Частота появления событий и их вероятности

Количество информации в сообщении зависит от вероятности каждого символа. Чем меньше вероятность символа, тем больше информации он несет. Например, если в тексте часто встречается буква "е", то информация, содержащаяся в этой букве, будет меньше, чем в редкой букве "щ". Таким образом, вероятностный подход позволяет более точно измерять информацию, учитывая распределение вероятностей символов. Этот подход широко используется в теории информации и ее приложениях, таких как сжатие данных и криптография.