
- •Предисловие.
- •1. Введение.
- •2. Количество информации.
- •2.1. Формула хартли.
- •2.2. Формула шеннона.
- •2.3. Свойства энтропии.
- •2.4. Энтропия в информатике и физике.
- •2.5. Вероятностный и объемный подходы к измерению количества информации.
- •2.6. Различные аспекты анализа информации.
- •3. Принципы кодирования и декодирования информации.
- •3.1. Буква (знак, символ). Алфавит.
- •3.2. Кодировщик и декодировщик.
- •3.3. Международные системы байтового кодирования.
- •3.4. Помехоустойчивое кодирование информации.
- •4. Передача информации.
- •4.1. Из истории развития передачи информации.
- •4.2 . Общая схема передачи информации.
- •4.3. Теорема котельникова.
- •4.4.Информационная емкость дискретного сигнала (сообщения). Формула шеннона.
- •4.5. Предельная скорость передачи информации по шеннону. Формула хартли - шеннона.
- •4.6. Теорема шеннона для дискретного канала с помехами.
- •5. Дискретные двоичные (бинарные) сигналы.
- •5.1. Регенерация двоичных сигналов.
- •5.2. Помехозащищенность двоичных сигналов.
- •5.3. Кодирование двоичных сигналов.
- •6. Аналоговые и дискретные процессы.
- •6.1. Аналоговые и дискретные сигналы.
- •6.2. Измерение отношения сигнал – шум.
- •6.3. Дискретизация и кодирование аналогового сигнала.
- •7. Цифровая телефонная связь.
- •8. Цифровая телеграфная связь.
- •9. Цифровое телевидение.
- •10. Системы передачи информации
- •10.1. Параметры радиосигналов.
- •10.2. Многоканальные линии связи. Уплотнение информации.
- •11. Оптоволоконная связь.
- •11.1. Из истории кабельной связи.
- •11.2. Принцип оптоволоконной связи.
- •12. Локальные сети.
- •12.1. Аппаратные средства.
- •12.2. Конфигурация локальных сетей.
- •12.3. Организация обмена информацией.
- •13. Спутниковая связь.
- •13.1. Общая характеристика спутниковой связи.
- •13.2. Принципы спутниковой связи.
- •14. Системы счисления.
- •14.1. Непозиционные системы счисления.
- •14.2. Позиционные системы счисления.
- •14.3. Перевод чисел из десятичной системы в другую систему.
- •14.4. Перевод чисел в десятичную систему из других систем.
- •14.5. Взаимные преобразования двоичных, восьмеричных и шестнадцатеричных чисел.
- •14.6. Двоично-десятичная система.
- •15. Языки программирования.
- •15.1. Языки программирования. Общая характеристика.
- •15.2. Язык программирования си. История создания. Общая характеристика.
- •15.3. Язык программирования си. Процесс создания исполняемого файла.
- •15.4. Язык программирования си. Распределение памяти программы.
- •15.5. Язык программирования си. Основные понятия.
- •15.6. Язык программирования си. Данные.
- •15.7. Язык программирования си. Структура простой программы.
- •Приложение 1. Система семибитного кодирования.
- •Приложение 2. Модифицированная альтернативная кодировка.
- •Приложение 3: клод элвуд шеннон.
- •Литература.
- •Оглавление.
2. Количество информации.
Количеством информации называется степень уменьшения неопределенности в результате передачи информации.
-
БИТ – минимальная единица количества информации, один ответ типа «ДА-НЕТ». Бит - сокращение от английских слов binary digit, что означает двоичная цифра.
-
I – количество единиц информации (бит), количество ответов типа «ДА-НЕТ» (бит), число разрядов двоичного кода (бит).
-
N – количество возможных событий в системе, количество возможных состояний системы.
-
H – Энтропия, степень (мера) неопределенности реализации конкретного состояния системы (бит).
Конкретные состояния, в которых может находиться система, могут быть равновероятными и не равновероятными.
При расчете энтропии системы с равновероятными состояниями (возможными событиями) используется формула Хартли. При расчете энтропии системы с не равновероятными состояниями (возможными событиями) используется формула Шеннона.
2.1. Формула хартли.
Если число состояний системы равно N, то это равносильно информации, даваемой I ответами типа «ДА-НЕТ» на вопросы, поставленные так, что «ДА» и «НЕТ» одинаково вероятны.
N=2I; log2N=Ilog22; log2N=I; I=log2N;
Количество информации I, минимально необходимой для устранения неопределенности H, равно двоичному логарифму числа возможных состояний системы N.
При реализации конкретного события (состояния) количество единиц полученной информации I равно энтропии H. При этом неопределенность полностью снимается.
I=H=log2N;
ЧИСЛО СОСТОЯНИЙ СИСТЕМЫ N И КОЛИЧЕСТВО ИНФОРМАЦИИ I.
Разряды двоичного слова |
N |
I |
||||
I |
… |
2 |
1 |
0 |
N=2I |
I=log2N |
|
|
|
|
|
21=2 |
1=log22 |
|
|
|
|
|
22=4 |
2=log24 |
|
|
|
|
|
23=8 |
3=log28 |
|
… |
|
|
|
2I |
I=log2N |
2.2. Формула шеннона.
Если
N - количество состояний системы,
p1, p2,…pN - соответствующие вероятности этих состояний,
pi >=0, - вероятность i- го состояния больше или равна 0,
-
сумма вероятностей всех состояний равна
1.
Тогда формально энтропия определяется формулой Шеннона:
Формула Шеннона переходит в формулу Хартли, если все N состояний системы являются равновероятными. В этом случае вероятность любого i - го состояния pi=1/N. Поэтому
2.3. Свойства энтропии.
-
Энтропия равна нулю (H = 0) в том случае, когда вероятность наступления какого-либо события (состояния) pi = 1, а вероятность наступления остальных событий (состояний) равна 0.
-
Энтропия максимальна (H = Max), когда при данном количестве возможных событий в системе (количестве возможных состояний системы) N все события (состояния) равновероятны (формула Хартли).
-
Энтропия суммы независимых опытов (двух, трех и т д.) равна сумме их энтропий (аддитивность количества информации).