
- •Раздел і. Основные понятия и методы теории информатики и кодирования. Сигналы, данные, информация. Общая характеристика процессов сбора, передачи, обработки и накопления информации
- •Общая характеристика процессов сбора, обработки, передачи и хранения информации
- •Лекция 2 Меры и единицы количества и объема информации
- •Позиционные системы счисления (псс)
- •Соответствие чисел в различных системах счисления
- •Лекция 4 Логические основы эвм
- •Раздел іі. Технические средства реализации информационных процессов. Лекция.5 История развития эвм. Понятие и основные виды архитектуры эвм
- •Лекция 6 Состав и назначение основных элементов персонального компьютера, их характеристики
- •Лекция 7 Запоминающие устройства: классификация, принцип работы, основные характеристики
- •Лекция 8 Устройства ввода/вывода данных, их разновидности и основные характеристики
- •Лекция10. Файловая структура операционных систем. Операции с файлами
- •Лекция11. Технология обработки текстовой информации
- •Лекция12. Электронные таблицы
- •Лекция13. Технология обработки графической информации
- •Лекция 14. Средства электронных презентаций
- •Лекция15. Системы управления базами данных Состав и функции систем управления базами данных
- •Лекция16. Основы баз данных и знаний Виды структур данных
- •Банки документов
- •Банк знаний
- •Раздел іv.
- •Лекция17. Моделирование как метод познания
- •Лекция 18.Классификация и формы представления моделей
- •Лекция19. Методы и технологии моделирования Связи между объектами
- •Этапы и цели компьютерного математического моделирования
- •Лекция20. Информационная модель объекта
- •Раздел V. Алгоритмизация и программирование. Лекция 21. Понятие алгоритма и его свойства. Блок-схема алгоритма
- •Лекция 22. Основные алгоритмические конструкции. Базовые алгоритмы
- •Лекция 23. Программы линейной структуры
- •Лекция24. Операторы ветвления, операторы цикла
- •Раздел VI. Локальные и глобальные сети эвм. Защита информации в сетях. Лекция25. Сетевые технологии обработки данных
- •Лекция26. Основы компьютерной коммуникации. Принципы организации и основные топологии вычислительных сетей
- •Лекция27. Сетевой сервис и сетевые стандарты
- •Лекция28. Защита информации в локальных и глобальных компьютерных сетях
- •Раздел VII.
- •Лекция 29.Этапы решения задач на компьютерах Основные этапы решения задач на эвм:
- •Лекция 30. Понятие о структурном программировании. Модульный принцип программирования. Подпрограммы. Принципы проектирования программ сверху – вниз и снизу – вверх
- •Лекция31. Объектно-ориентированное программирование
- •Лекция 32. Эволюция и классификация языков программирования. Основные понятия языков программирования
- •Лекция33. Структуры и типы данных языка программирования
- •Лекция 34. Трансляция, компиляция и интерпретация
Лекция 2 Меры и единицы количества и объема информации
Определить понятие «количество информации» довольно сложно. В решении этой проблемы существуют два основных подхода. Исторически они возникли почти одновременно.
В конце 40-х годов XX века один из основоположников кибернетики, американский математик Клод Шеннон, развил вероятностный подход к измерению количества информации, а работы по созданию ЭВМ привели к «объемному» подходу.
Вероятностный подход
Рассмотрим в качестве примера опыт, связанный с бросанием правильной игральной кости, имеющей N граней. Результаты данного опыта могут быть следующие: выпадение грани с одним из следующих знаков: 1, 2, ..., N
Введем в рассмотрение численную величину, измеряющую неопределенность — энтропию (обозначим ее Н). Согласно развитой теории, в случае равновероятного выпадания каждой из граней величины N и Н связаны между собой формулой Хартли Н = log2 N.
Важным при введении какой-либо величины является вопрос о том, что принимать за единицу ее измерения. Очевидно, Я будет равно единице при N = 2.
Иначе говоря, в качестве единицы принимается количество информации, связанное с проведением опыта, состоящего в получении одного из двух равновероятных исходов (примером такого опыта может служить бросание монеты, при котором возможны два исхода: «орел», «решка»). Такая единица количества информации называется «бит».
В случае, когда вероятности Рi результатов опыта (в примере, приведенном
выше, — бросания игральной кости) неодинаковы, имеет место формула Шеннона
n
Н = -Σ Pi х log 2Pi В случае равновероятности событий Pi = 1/N, и формула
i-1
Шеннона переходит в формулу Хартли.
В качестве примера определим количество информации, связанное с появлением каждого символа в сообщениях, записанных на русском языке. Будем cчитать, что русский алфавит состоит из 33 букв и знака «пробел» для разделения слов. По формуле Хартли Н = log2 34 =5,09 бит.
Однако в словах русского языка (равно как и в словах других языков) различные буквы встречаются неодинаково часто.
Воспользуемся для подсчета Н формулой Шеннона: Н ~ 4,72 бит. Полученное значение H, как и можно было предположить, меньше вычисленного ранее. Величина Н, вычисляемая по формуле Хартли, является максимальным количеством информации, которое могло бы приходиться на один знак.
В техническом устройстве наиболее просто реализовать 2 противоположных физических состояния: намагниченность в двух противоположных направлениях; прибор, пропускающий ток или нет; конденсатор, заряженный или разряженный. Поэтому создатели компьютеров отдают предпочтение двоичной системе счисления (0 и 1 — биты).
Бит — наименьшая единица информации.
Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации, подсчитывается просто по числу требуемых для такой записи двоичных символов. При этом, в частности,невозможно нецелое число битов (в отличие от вероятностного подхода). Для удобства использования введены и более крупные, чем бит, единицы количества информации. Так, двоичное слово из восьми знаков содержит один байт информации/
8 бит — 1 байт
1024 байт — 1 кбайт
1024 кбайт — 1 Мбайт
1024 Мбайт — 1 Гбайт
Наименьшей единицей измерения является байт (8бит)..
В прикладной информатике практически всегда количество информации понимается в объемном смысле.
Как ни важно измерение информации, нельзя сводить к нему все связанные с
этим понятием проблемы. При анализе информации социального (в широким смысле) происхождения на первый план могут выступить такие ее свойства, как истинность, своевременность, ценность, полнота и т.д. Их невозможно оценить в терминах «уменьшение неопределенности» (вероятностный подход) или числа символов (объемный подход). Обращение к качественной стороне информации породило иные подходы к ее оценке. При аксиологическом подходе стремятся исходить из ценности, практической значимости информации, т.е. из качественных характеристик, значимых в социальной системе. При семантическом подходе информация рассматривается с точки зрения как формы, так и содержания. При этом
информацию связывают с тезаурусом, т.е. полнотой систематизированного набора данных о предмете информации. Отметим, что эти подходы не исключают количественного анализа, но он становится существенно сложнее и должен базироваться на современных методах математической статистики.
Лекция 3Позиционные системы счисления