- •Предисловие
- •Введение
- •Концептуальные основы информационных процессов.
- •О понятии «Информация» [1,2]
- •1.2. Виды и свойства информации [2].
- •1.3. Этапы обращения информации [1].
- •1.4. Информационные системы [1].
- •1.5. Система передачи информации [1].
- •1.6. Уровни проблем передачи информации [1].
- •1.7. О смысле «Теории информации» в системе связи [1].
- •2. Математические основы теории вероятностей [6,4].
- •2.1. Случайное событие и вероятность.
- •2.2 Случайные величины и их вероятностные характеристики.
- •Случайные функции и их вероятностное описание.
- •2.4 Корреляционные характеристики случайных процессов.
- •Дифференциальный; 2) интегральный;
- •3) Плотность вероятностей.
- •Дифференциальный; 2) интегральный; 3) числовой.
- •Свойства энтропии [1,3 и др.].
- •Условная энтропия и ее свойства [1,2 и др.].
- •Свойства условной энтропии
- •Энтропия непрерывного источника информации (дифференциальная энтропия) [1, 2 и др.].
- •Передача информации от дискретного источника [1 и др.].
- •Передача информации от непрерывного источника [1 и др.].
- •Основные свойства количества информации [1 и др.].
- •4. Информационные характеристики источника сообщений и канала связи.
- •4.1. Введение [1 и др.].
- •4.2. Информационные характеристики источника дискретных сообщений.
- •4.2.1 Модели источника дискретных сообщений [1 и др.].
- •4.2.2 Свойства эргодических последовательностей знаков [1 и др.].
- •4.2.3 Избыточность источника [1 и др.].
- •4.2.4 Производительность источника дискретных сообщений [1 и др.].
- •4.3. Информационные характеристики дискретных каналов связи.
- •4.3.1 Модели дискретных каналов [1, 4, 5 и др.].
- •Скорость передачи информации по дискретному каналу [1 и др.].
- •Пропускная способность дискретного канала без помех [1 и др.].
- •Пропускная способность дискретного канала с помехами [1 и др.].
- •Информационные характеристики непрерывных каналов связи [1 и др.].
- •Согласование физических характеристик сигнала и канала [1 и др.].
- •Согласование статистических свойств источника сообщений и канала связи [1 и др.].
- •4.6 Контрольные вопросы к разделам 3 и 4 в форме «Задание – тест» тема: «Количественная оценка информации».
- •1) Бод; 2) бит (двоичная цифра); 3) байт.
- •1) Сумма; 2) произведение; 3) разность.
- •1) Безусловной энтропией; 2) условной энтропией;
- •3) Совместной энтропией.
- •1) Объем алфавита;
- •2) Объем алфавита и вероятности создания источником отдельных знаков; 3) вероятности создания источником отдельных знаков.
- •1) Нестационарным; 2) стационарным; 3) постоянным.
- •1) Нестационарным; 2) стационарным; 3) постоянным.
- •1) С памятью; 2) без памяти; 3) регулярный.
- •1) С памятью; 2) без памяти; 3) регулярный.
- •1) Симметричный; 2) несимметричный; 3) условный.
- •1) Симметричный; 2) несимметричный; 3) условный.
- •1) Максимальная скорость; 2) пропускная скорость; 3) предел скорости.
- •1) Уменьшается; 2) увеличивается; 3) не изменяется.
- •1) Уменьшается; 2) увеличивается; 3) не изменяется.
- •5.2. Классификация кодов [4 и др.].
- •5.3. Представление кодов [4 и др.].
- •5.4. Оптимальное (эффективное) статистическое кодирование [3 и др.].
- •5.4.1 Методы эффективного кодирования некоррелированной последовательности знаков [1 и др.].
- •Методика построения кода Шеннона – Фано [1].
- •Методика построения кода Хаффмена [2 и др.].
- •5.4.2 Свойство префиксности эффективных кодов [1 и др.].
- •5.4.3 Методы эффективного кодирования коррелированной последовательности знаков.
- •5.4.4 Недостатки системы эффективного кодирования.
- •1) Номер разряда;
- •2) Множитель, принимающий целочисленные значения;
- •3) Количество разрядов.
- •Всякий блочный код можно представить таблицей:
- •Всякий блочный код можно представить таблицей:
- •Литература:
- •Содержание
Дифференциальный; 2) интегральный;
3) Плотность вероятностей.
Закон распределения w(x)=dF(x)/dx, определяемый дифференцированием функции распределения F(x), называют:
Дифференциальный; 2) интегральный; 3) числовой.
Особое место среди вероятностных характеристик случайных величин занимает нормальный дифференциальный закон распределения (плотность вероятностей)
(где σ2 – дисперсия, а – среднее значение, σ – среднеквадратическое отклонение) представлен на рис. 2.4, для a=0
Рис. 2.4.
Значение интегральной функции распределения
при x1=0, x2=∞ равно:
1; 2) 0,5; 3) 0.
при x1=-∞, x2=+∞ равно:
0; 2) 0,5; 3) 1.
при x1=-∞, x2=0 равно:
1; 2) 0; 3) 0,5.
Числовая характеристика случайной величины x, определяемая как начальный момент 1-порядка по формуле
(где ω(x) плотность вероятностей)
называют:
среднеквадратическое отклонение; 2)среднее значение;
3) дисперсия.
Числовая характеристика случайной величины x определяемая как центральный момент 2-го порядка по формуле:
(где m1(x) – среднее значение, ω(x) – плотность вероятностей)
называют:
среднеквадратическое отклонение; 2) среднее значение;
дисперсия.
Числовая характеристика случайной величины x, определяемая как корень квадратный из центрального момента второго порядка по формуле:
(где m1(x) – среднее значение, w(x) – плотность вероятностей) называют:
дисперсия; 2) среднеквадратическое отклонение;
3) математическое ожидание.
Числовая характеристика случайного процесса x(t), определяющая меру статистической связи между значениями случайного процесса в два разных момента времени x(t1) и x(t2), определяемая по формуле:
(где W2(…) – двумерная плотность вероятностей) называют функцией:
времени; 2) корреляции; 3) интегральной.
Интервал τ0 на рис. 2.5, где показана нормированная корреляционная функция ρx(τ)
(где Bx(τ) – функция корреляции)
называют:
интервалом корреляции; 2) интервалом независимости;
3) интервалом стационарности.
3. Количественная оценка информации.
3.1 Энтропия, как мера неопределенности выбора независимых сообщений дискретного источника [1,2,3,4 и др.].
В данном разделе ставятся задачи установления количественных мер неопределенности и информации и выяснения их основных свойств для дискретного источника.
Начнем рассмотрение с источника информации, который может в каждый момент времени случайным образом принять одно из конечного множества возможных состояний. Такой источник называют дискретным источником информации. При этом принято говорить, что различные состояния реализуются вследствие выбора их источником. Каждому состоянию источника x ставится в соответствие условное обозначение в виде знака (в частности, буквы) из алфавита данного источника: x1, x2, …, xN.
Для получения результата выбора источником конкретного состояния x можно высказать ряд предположений, базирующихся на априорных сведениях об источнике информации. Поскольку одни состояния выбираются источником чаще, а другие реже, то в общем случае он характеризуется ансамблем X, т.е. полной совокупностью состояний с вероятностями их появления, составляющими в сумме единицу:
или
(3.1)
причем
или
Обе формы записи используются в дальнейшем на равных основаниях.
Опираясь на эти сведения, введем сначала меру неопределенности выбора состояния источника. Ее можно рассматривать и как меру количества информации, получаемой при полном устранении неопределенности относительно состояния источника. Мера должна удовлетворять ряду естественных условий. Одним из них является необходимость выбора, т.е. числа возможных состояний источника N, причем недопустимые состояния (состояниями с вероятностями, равными нулю) не должны учитываться, так как они не меняют неопределенности.
Ограничиваясь только этим условием, за меру неопределенности можно было бы взять число состояний, предположив, что они равновероятны. Однако такая мера противоречит некоторым интуитивным представлениям. Например, при N=1, когда неопределенность отсутствует, она давала бы значение, равное единице. Кроме того, такая мера не отвечает требованию аддитивности, состоящему в следующем.
Если два независимых источника с числом равновероятных состояний N и M рассматривать как один источник, одновременно реализующий пары состояний nimj, то естественно предположить, что неопределенность объединенного источника должна равняться сумме неопределенностей исходных источников. Поскольку общее число состояний объединенного источника равно NM, то искомая функция должна удовлетворять условию
(3.2)
Соотношение (3.2) выполняется, если в качестве меры неопределенности источника с равновесными состояниями и характеризующего его ансамбля x принять логарифм числа состояний:
(3.3)
Тогда при X=1 H(X)=0 и требование аддитивности выполняется.
Указанная мера была предложена американским ученым Р. Хартли в 1928 г. Основание логарифма не имеет принципиального значения и определяет только масштаб или единицу неопределенности. Так как современная техника базируется на элементах, имеющих два устойчивых состояния, то обычно выбирают основание логарифма равным двум. При этом единица неопределенности называется двоичной единицей или битом и представляет собой неопределенность выбора из двух равновероятных событий (bit – сокращение от англ. binary digit – двоичная единица). Если основание логарифма выбрать равным десяти, то неопределенность получим в десятичных единицах на одно состояние (дитах).
Однако ясно, что такая оценка меры неопределенности учитывает не все априорные сведения, характеризующие опыт X. В этой оценке меры неопределенности не учтены вероятности различных исходов.
Дальнейшее развитие понятия неопределенности получило в работах К. Шеннона. Он ограничил рамки применимости формул Хартли лишь случаем, когда все N исходов в опыте X равновероятны. В этом случае вероятность любого исхода pi=1/N и формулу (3.3) можно переписать в виде
(3.4)
Формула показывает, что неопределенность исхода зависти от вероятности исхода. К. Шеннон применил эту формулу к разновероятным исходам, усреднив затем полученные неопределенности по всем исходам. Для опыта X={x1, …, xm}, где x1, …, xm – возможные исходы с вероятностями p1, …, pm, неопределенность каждого исхода –log(p1), -log(p2), …, -log(pm), а математическое ожидание
(3.5)
Данная мера неопределенности получила название энтропии.
Заметим, что под опытом X мы можем принимать информативный параметр сигнала. Поэтому, говоря об энтропии опыта со случайными исходами, мы с полным правом можем говорить и об энтропии сигнала как о мере его неопределенности до получения конкретной реализации сигнала.
Следовательно, мера К. Шеннона является обобщением меры Хартли на случай ансамбля с неравновероятными состояниями. Она, энтропия, позволяет учесть статистические свойства источника информации.
Понятие энтропии тесно связано с понятием количества информации. Под количеством информации обычно понимается мера снятой неопределенности в процессе получения сигнала адресатом.
Предположим, что априорно ситуация характеризовалась энтропией H1. После получения сигнала энтропия уменьшилась до H2. Тогда количество информации, полученное адресатом,
(3.6)
Пример 3.1. Сравнить неопределенность, приходящуюся на букву источника информации, Х (алфавита русского языка), характеризуемого ансамблем, представленным в табл. 3.1,с неопределенностью, которая была бы у того же источника при равновероятным использовании букв.
При одинаковых вероятностях появления всех 32 букв алфавита неопределенность ,приходящаяся на одну букву, составляет
Буква |
Пробел |
о |
е, ё |
а |
и |
т |
н |
с |
р |
В |
л |
Вероятность |
0,175 |
0.090 |
0,072 |
0,062 |
0,062 |
0,053 |
0,053 |
0.045 |
0,040 |
0,038 |
0,035 |
Буква |
к |
м |
д |
п |
у |
я |
ы |
з |
ь, ъ |
Б |
г |
Вероятность |
0,028 |
0,026 |
0,025 |
0,023 |
0.021 |
0,018 |
0,016 |
0,016 |
0,014 |
0,014 |
0,013 |
Буква |
ч |
й |
х |
ж |
ю |
ш |
ц |
щ |
э |
Ф |
|
Вероятность |
0,012 |
0,010 |
0,009 |
0,007 |
0,006 |
0,006 |
0,004 |
0,003 |
0,003 |
0,002 |
таблица 3.1
Энтропию источника H1(X) для независимых букв (табл. 3.1), находим, используя формулу (3.5):
Пример 3.2. Приводятся значения энтропий Hi,приходится на одну букву русского и английского алфавитов с учетом различных корреляционных (статистических) связей в буквенных сочетаниях (H0, H1, H2, …, HN). Вероятность появления букв в английском алфавите приведены в таблице 3.2.
таблица 3.2
Буква |
Пробел |
e |
t |
o |
a |
n |
i |
r |
s |
h |
Вероятность |
0,2 |
0,105 |
0,072 |
0,0654 |
0,063 |
0,059 |
0,055 |
0,054 |
0,052 |
0,047 |
Буква |
d |
l |
c |
f |
u |
m |
p |
y |
w |
g |
Вероятность |
0,035 |
0,029 |
0,023 |
0,0225 |
0,0225 |
0,021 |
0,0175 |
0,012 |
0,012 |
0,011 |
Буква |
b |
v |
k |
x |
j |
q |
z |
|
||
Вероятность |
0,0105 |
0,008 |
0,003 |
0,002 |
0,001 |
0,001 |
0,001 |
|||
Значения энтропии Hi, приходящихся на одну букву с учетом различных многобуквенных сочетаний (H2, H3, …, HN – энтропия на букву текста при учете вероятности появления двухбуквенных H2, трехбуквенных H3, …, HN сочетаний) приведены в таблице 3.3
таблица 3.3
Энтропия |
H0 |
H1 |
H2 |
H3 |
H5 |
H8 |
Русский текст Английский текст |
5,00 4,75 |
4,35 4,03 |
3,52 3,32 |
3,00 3,10 |
– 2,16 |
– 1,86 |
Таким образом, энтропия приходящаяся на одну букву смыслового текста при учете многобуквенных сочетаний уменьшается. Это характеризует избыточность наиболее распространенных языков. Во многих случаях выгодно первоначальный алфавит источника представить при помощи другого алфавита путем кодирования.
