- •1. Особенности информатики как науки и учебной дисциплины. Роль информации в современном обществе.
- •2. Этапы становления и развития информатики. Информационные барьеры в истории человечества.
- •3. Свойства информации, как признак ее классификации.
- •4. Информационная культура.
- •5. Информационные технологии
- •6. Информационные ресурсы
- •7. Информационные системы
- •8. Состав информационных процессов. Передача информации, как один из информационных процессов.
- •9. Существо подходов к измерению количества информации.
- •10. Мера количества информации р. Хартли
- •11. Мера количества информации к. Шеннона для сообщений с неравновероятными независимыми символами.
- •12. Логические элементы пэвм. Основные законы и тождества алгебры логики.
- •13. Истоки вычислительной техники
- •14. История создания и развития отечественной вычислительной техники
- •15. Поколения эвм
- •16. Классификация эвм по области применения.
- •17. Структурная схема эвм по фон Нейману
- •18. Функционирование пэвм
- •19. Назначение, классификация, история создания и эволюции микропроцессоров
- •20. Иерархия подсистемы памяти
- •21. Внешние запоминающие устройства. Физические основы записи и хранения информации на магнитных носителях жестких дисков
- •22. Внешние запоминающие устройства. Физические основы записи, хранения и считывания информации с оптических дисков
- •23. Устройства ввода информации. Клавиатура. Ручной манипулятор «мышь»
- •24. Устройства вывода информации. Устройство дисплея на основе жидкокристаллической матрицы
- •25. Устройства вывода информации. Принцип действия лазерного принтера
- •26. Моделирование как метод научного познания. Основные термины и определения
- •27. Математическое (аналитическое) моделирование
- •28. Математическое имитационное моделирование
- •29. Классификация моделей
- •30. Понятие «алгоритм». Сложность алгоритмов
- •31. Свойства алгоритмов
- •32. Формы представления (задания) алгоритмов
- •33. Типовые структуры алгоритмов
- •34. Этапы создания программы. Основные характеристики программ
- •35. Этапы становления и развития технологий программирования
- •36. Классификация языков программирования
- •38. Классификация программного обеспечения пэвм
- •39. Структура системного программного обеспечения
- •40. Понятие об операционной системе
- •41. Операционные системы корпорации Microsoft
- •42. Два подхода к хранению и использованию данных в информационных системах
- •43. Понятие предметной области. Виды моделей баз данных. Иерархическая и сетевая модели
- •44. Виды моделей баз данных . Реляционная модель базы данных
- •45. Системы управления базами данных и их функции
- •46. Цели создания компьютерных сетей
- •47. Классификация компьютерных сетей
- •48. История создания и эволюция Internet
- •49. Понятие «Информационная безопасность»
- •50. Основные составляющие информационной безопасности.
- •51.Компьютерные вирусы. Признаки проявления.
- •52.Методы защиты от компьютерных вирусов
- •53. Модель криптографической симметричной системы.
- •54.Модель асимметричной системы шифрования.
- •55. Криптографическая система с открытым ключом
- •56. Электронная цифровая подпись
- •Требования к эцп
- •57. Общие сведения о Word
- •58. Общие сведения о Microsoft excel.
- •59. Microsoft pp
11. Мера количества информации к. Шеннона для сообщений с неравновероятными независимыми символами.
Любая теория математически строга своими допущениями и ограничениями. Так, формула Хартли, с точки зрения теории вероятности, справедлива только в том случае, если символы в сообщении, формируемом дискретным источником, равновероятны и несовместны (это определил и сам Хартли), но также и независимы (это доказали К. Шеннон А.Я. Хинчин). В реальных СПИ такие ограничения чаще всего не выполняются.
Особенно это характерно для передачи текстовых сообщений на различных языках. Так в тексте, написанном на английском языке чаще всего встречается буква е, на русском языке – буква а, на украинском языке – буква о. В русском тексте вероятность появления буквы о принято считать равной 0,09, в то время как для буквы ф – 0.002. Для оценки количества информации в таких сообщениях применение меры Р. Хартли становится некорректным.
Это ограничение снял в своей теории Клод Шеннон. Покажем, как он решил задачу определения количества информации в сообщениях, в которых символы являются несовместными, независимыми и неравновероятными.
Рассмотрим множество Х случайных событий х1, х2,...хN , наступающих с вероятностями:
р(х1)= р1, р(х2)= р2 , ..., р(хN)=рN
Назовем это законом распределения вероятностей. Пусть эти события независимы, несовместны и составляют полную группу событий, т.е. р1 + р2 + ...+ pN = 1.
Множество, удовлетворяющее указанным требованиям, Шеннон назвал ансамблем случайных событий.
Неопределенность исхода опыта с ансамблем, который записывается законом распределения вида
Х
= х1,
х2,
... , хm
p1 p2 pm ( 11 )
,
причем
,
К.Шеннон предложил находить по формуле
(
12 )
Эта формула в теории информации носит название формулы Шеннона.
Пример 2. Пусть источник информации формирует сообщение Х, состоящее из 4 –х символов х1,х2,х3,х4 , вырабатываемых с вероятностями р(х1) = 1/2 , p(x2) = 1/4, p(x3) = p(x4) = 1/8.
Требуется найти среднее количество информации, передаваемое с каждым символом
I(X) = H(X) = - (1/2 log 21/2 +1/4 log2 1/4+ 2 1/8 log2 1/8) =
(- 1/2 -1/2 – 3/4) = 7/4 дв.ед/ симв. (бит/симв.)
В формуле (12) величину Н(Х) – Шеннон назвал энтропией ансамбля дискретных сообщений(в Н(Х) – Х – не аргумент функции, а обозначение ансамбля). Такие сообщения, которые в любой момент времени могут принимать только одно значения называют простыми.
Чем руководствовался Шеннон при выводе формулы (12)? Чтобы ответить на этот вопрос, рассмотрим ряд примеров.
Пример 1. Пусть имеем систему, которая может принимать два независимых несовместных состояния х1 и х2 с вероятностями соответственно р(x1)=р(x2)=0,5 и другую систему Y, которая также может принимать два состояния y1 и y2, но с вероятностями соответственно p(y1)=0,1 и P(y2)=0,9.
С точки зрения неопределенности состояния систем Х и Y можно качественно предположить, что у системы Х она больше, чем у системы Y, так как для системы Y наиболее вероятно, что она находится в состоянии y2. Следовательно, можно отметить, что степень неопределенности, а также ее количественная мера – энтропия являются функциями вероятностных характеристик, того или иного состояния системы (исхода опыта).
По формуле Шеннона это можно доказать количественно. Например, при основании логарифма а = 2, получим
- для системы Х:
I(X) = H(X)до опыта =
= -(
=
;
- для системы Y:
I(Y) = H(Y)до опыта =
= -(
=
.
