- •Информатика теоретические основы информатики
- •Курс: информатика
- •Оглавление
- •Дидактический план
- •Тематический обзор
- •1. Информатика как наука и как вид практической деятельности
- •1.1. Основные понятия информатики. Информационный ресурс
- •1.1.1. Объект и предмет информатики
- •1.1.2. Структура современной информатики
- •1.1.3. Информационные ресурсы
- •1.2. История развития информатики
- •1.3. Место информатики в ряду других фундаментальных наук
- •1.4. Информационные технологии
- •1.5. Социально-экономические аспекты информационных технологий
- •1.6. Правовые и этические аспекты информационных технологий
- •2. Информация
- •2.1. Понятие информации. Носители информации. Сигналы
- •2.2. Измерение информации. Энтропия. Количество информации
- •2.2.1. Структурная мера информации
- •2.2.2. Статистическая мера информации
- •2.2.3. Семантическая мера информации
- •2.3. Свойства информации
- •3. Теоретические аспекты обработки информации
- •3.1. Абстрактные автоматы и понятие алгоритма. Программное управление
- •3.1.1. Понятие алгоритма
- •3.1.2. Формализация алгоритма. Абстрактные автоматы
- •3.2. Обработка аналоговой и цифровой информации. Кодирование информации
- •3.3. Системы счисления. Методы перевода чисел из одной системы счисления в другую
- •3.3.1. Основные понятия
- •Некоторые системы счисления
- •3.3.2. Двоичная система счисления
- •3.3.3. Восьмеричная и шестнадцатеричная системы счисления
- •Соответствие чисел в различных системах счисления
- •3.4. Устройства обработки информации и их характеристики
- •3.4.1. Краткая история развития устройств обработки информации
- •3.4.2. Классическая архитектура эвм
- •3.4.3. Характеристика основных блоков эвм
- •3.4.4. Основной цикл работы эвм
- •3.4.5. Накопители информации
- •3.4.6. Внешние устройства эвм
- •4. Автоматизированные информационные системы (аис)
- •4.1. Классификация аис
- •4.2. Информационный процесс в автоматизированных системах. Фазы информационного цикла и их модели
- •4.2.1. Этапы информационного процесса в аис
- •4.2.2. Сбор и преобразование информации
- •4.2.3. Передача информации
- •4.2.4. Обработка информации
- •Задания для самостоятельной работы
- •1. В следующей таблице в правом столбце запишите, что означают аббревиатуры, приведенные в левом столбце:
- •2. Сгруппируйте нижеперечисленные аис следующим образом:
- •3. Преобразуйте аналоговый сигнал X(t) в двоичный вид:
- •4. Вставьте в текст пропущенные термины:
- •5. Заполните таблицы сложения и умножения в шестеричной системе счисления:
- •6. Вычеркните неверные предложения:
- •9. О чем идет речь?
- •10. Вставьте в текст пропущенные термины:
- •11. О чем идет речь?
- •12. Вставьте пропущенные названия элементов в схеме:
- •13. Вставьте пропущенные названия элементов в схеме:
2.2.3. Семантическая мера информации
Вычислительные машины обрабатывают и преобразуют информацию разного содержания – от числовых данных до сочинения музыки и стихов. Вся эта информация изображается соответствующими символами. Оценка содержания разнохарактерной информации – весьма сложная проблема.
Среди семантических мер наиболее распространены содержательность, логическое количество, целесообразность и существенность информации.
Содержательность события i выражается через функцию меры m(i) – содержательности его отрицания. Оценка содержательности основана на математической логике, в которой логические функции истинности m(i) и ложности m(о) имеют формальное сходство с функциями вероятностей события p(i) и антисобытия q(i) в теории вероятностей.
Как и вероятность, содержательность события изменяется в пределах 0< m(i)< 1.
Логическое количество информации Inf, сходное со статистическим количеством информации, вычисляется по выражению:
Inf = log2 [1/m(i)] = – log2 m(о)
Отличие статистической оценки от логической состоит в том, что в первом случае учитываются вероятности реализации тех или иных событий, что приближает к оценке смысла информации.
Если информация используется в системах управления, то ее полезность целесообразно оценивать по тому эффекту, который она оказывает на результат управления.
Мера целесообразности информации определяется как изменение вероятности достижения цели при получении дополнительной информации. Полученная информация может быть пустой, т. е. не изменять вероятности достижения цели, и в этом случае ее мера равна нулю. В других случаях полученная информация может изменять положение дела в худшую сторону, т. е. уменьшить вероятность достижения цели, и тогда она будет дезинформацией, измеряющейся отрицательным значением количества информации. Наконец, в благоприятном случае получается добротная информация, которая увеличивает вероятность достижения цели и измеряется положительной величиной количества информации.
Мера целесообразности в общем виде может быть аналитически выражена в виде соотношения:
(2.8)
где p0 и p1 – начальная (до получения информации) и конечная (после получения информации) вероятности достижения цели.
Следует различать: существенность самого события; существенность времени совершения события или его наблюдения (рано–поздно–момент); существенность координаты совершения события.
Измерение некоторого параметра Х можно характеризовать несколькими функциями величины х: вероятностью р(х), погрешностью измерения е(х) и существенностью с(х). Каждой из этих функций можно поставить в соответствие определенную меру информации. Мерой Хартли оценивается функция погрешности е при фиксированных значениях функции вероятности (р = const) и существенности (с = const). Мерой Шеннона оценивается функция вероятности (р = var) при фиксированных значениях функций погрешности (е = const) и существенности (с = const). Мера существенности относится к ситуации с фиксированными функциями погрешности (е = const) и вероятности (р = const).