
- •Вопрос №1 Информатика; науки, входящие в информатику. Информация как основная категория информатики.
- •Вопрос №2. Теоретическая информатика и её состав.
- •Вопрос 3
- •Два подхода к измерению информации: содержательный (субъективный) и алфавитный (объктивный).
- •Вопрос №4. Измерение информации в случае равновероятных событий. Формула Хартли.
- •Вопрос №5 Измерение информации в случае неравновероятных событий. Формула Шеннона. Формула Шеннона используется в тех случаях, когда вероятности исходов различны (в отличие от формулы Хартли)
- •Вопрос №6 Теория кодирования информации. Первая теорема Шеннона.
- •Вопрос №7 Виды кодирования. Коды Фано-Шеннона и Хаффмана.
- •Вопрос №8 Хранение информации.
- •9 Вопрос.
- •Вопрос 10. Представление положительных и отрицательных целых чисел в эвм.
- •11 Понятие о формальном языке и грамматике.
Два подхода к измерению информации: содержательный (субъективный) и алфавитный (объктивный).
содержательный (субъективный):
Зависит от субъекта. О от что он знает, а что не знает, что для него будет является информацией, а что нет. ЕХ: Париж столица Франции – не информация, Высота Эйфелевой башни … м.- информация., Или 2*2=4 и китайский язык.
Информация появляется только в процессе убыли энтропии. Можно пользоваться формулой:
I=H1-H2,
где I-информация, H1- энтропия до опыта, H2 – энтропия после опыта.
Если в результате опыта информация не изменилась, то информация была нулевой. Количество информации численно равно кол-ву вопросов с равновероятными бинарными вариантами ответов, которые необходимо задать, чтобы исключить неопределенность. I=H1-H2= log2n - формула Хартли. (1бит = уменьшает неопределенность в 2 раза.)
алфавитный (объективный):
Содержание информация, а информация – это набор знаков, чем больше знаков, тем больше информации
Вопрос №4. Измерение информации в случае равновероятных событий. Формула Хартли.
Вероятность – величина, характеризующая вероятность происхождения действия.
Противоположная величина – неопределенность.
Мы будем следить за неопределенностью. Неопределенность случайного события будет зависеть от некоторого числа исходов события n.
F(n) – определяет неопределенность случайного события.
Все n вариантов равновероятны.
Свойства f(n):
f(1)=0, т.к. никакой неопределенности не будет.
Если n будет расти, то f(n) будет увеличиваться. n->
.
Пусть у нас имеется сложное событие (св-во. аддитивности): f(n1;n2) = f(n1)+f(n2). Общая неопределенность двух событий равна сумме неопределенностей этих событий.
При равновероятных событиях функция f будет max.
Какая функция удовлетворяет всем этим выше перечисленным условиям? Это логарифм. logan.
f(n)= logan
logaв∙logan – переход к новому основанию (!!!!logaв=const!!!!).
а влияет на единицу измерения.
Очень удобно выбрать основание а=2.
Тогда f(n)= log2n. Это нам удобно.
Рассмотрим случай, когда n=2: f(2)= log22=1.
Если событие имеет 2 равновероятных исхода, то вероятность происхождения события равна 1. Энтропия H-мера неопределенности.
H= log2n - формула Хартли 1928 год. (2H=n).
Эта формула предполагает равновероятность всех событий.
Преобразуем формулу Хартли к другому виду; он будет менее удобным, но более удобным для теоретического обобщения (для вывода следующей формулы)
Этим занимался Шеннон, он обобщил формулу ,он искусственно преобразовал её для рабочих целей.
Pi=1/n (Pi- вероятность).
Попробуем найти
энтропию для отдельно взятого события.
События равновероятные: H1=H/n
H-
общая энтропия для всего события. H1-
доля, приходящаяся на одно событие
(исход).
1/n log2n Pi log21/ Pi Избавимся от дроби, используя cв-во. логарифмов: -Pi log2Pi- это ответ. Разбили энтропию между всеми исходами.
Вопрос №5 Измерение информации в случае неравновероятных событий. Формула Шеннона. Формула Шеннона используется в тех случаях, когда вероятности исходов различны (в отличие от формулы Хартли)
Есть некое событие А, с разными исходами, n- число исходов события.
Ai |
A1 A2 A3 … An |
Ai – произвольный исход |
Pi |
P1 P2 P3 … Pn |
Pi – произвольная вероятность |
Воспользуемся
-Pi
log2Pi
(формула Хартли переделанная), которая
дает возможность определения исхода
события Ai:
-
формула Шеннона.
Здесь Pi м.б. разными. По смыслу эта величина H является средними значениями энтропии для всех опытов.
Докажем, что в случае равновероятных событий из формулы Шеннона можно получить формулу Хартли.
Положим Pi=P=const
Нужно избавиться от P:
P=1/n.
Доказали: мы получили формулу Хартли,
которая является частным случаем формулы
Шеннона для некоторых условий.
EX:
Пусть некоторое сообщение х1, х2, х3 появляются с вероятностью ½, 3/8, 1/8. Определить энтропию для сообщения и предложить систему кодирования для этого сообщения.
Используем формулу
Шеннона:
Это мера неопределенности для сообщения. Теоретическое значение, которое мы получим, является предельным, т.е. минимально возможным. На практике энтропия будет выше.
Обратимся ко второй части задачи. Определим систему кодирования. Если приходит сообщение х1, то кодируем его 0, х2 кодируем 10, х3 кодируем 11. Посмотрим, как связана кодировка с полученной H.
х1 |
х2 |
х3 |
0 |
10 |
11 |
1/2 |
3/8 |
1/8 |
L= 1∙1/2+2∙3/8+2∙1/8=1/2+3/4+1/4=1,5 , где L-средняя длина сообщения.