Информатика
.pdf21.01.2013
Информация — это содержание сообщения, сигнала, памяти, а также сведения, содержащиеся в сообщении, сигнале или памяти
31
21.01.2013
Сигнал — физический процесс, несущий информацию
32
21.01.2013
Информационные процессы не сводимы к физическим, а информация, наряду с материей и энергией, является одной из фундаментальных сущностей окружающего нас мира
33
21.01.2013
КОЛИЧЕСТВО
ИНФОРМАЦИИ
34
21.01.2013
СПОСОБЫ ИЗМЕРЕНИЯ ИНФОРМАЦИИ:
ЭНТРОПИЙНЫЙ (используется в теории информации)
ОБЪЁМНЫЙ (используется в технике)
35
21.01.2013
Общая мера неопределенности (энтропия) характеризуется математической зависимостью от совокупности вероятностей
Pi (i = 1,2,…,n)
n
H Pi loga Pi
i 1
36
21.01.2013
Количество информации в сообщении определяется тем, насколько уменьшается энтропия после получения сообщения
∆H = Hи − Hк
37
21.01.2013
Тривиальное сообщение - сообщение о том, что получателю уже известно, не изменяет ожидаемых вероятностей и не несет никакой информации
Hк = Hи |
∆H = 0 |
38
21.01.2013
Полное сообщение - несет полную информацию о данном множестве событий и снимает всю неопределенность
Hк = 0 ∆H = Hи
39
21.01.2013
В объемном способе измерения
количество информации определяется числом символов в сообщении, т.е. его длиной
40