- •Список сокращений
- •1. Эис, их классификация и принципы построения
- •1.1. Понятие системы
- •1.2. Понятие эис. Назначение эис
- •1.3.Классификация эис
- •1.4. Основные принципы и методы построения эис.
- •1.4.1. Принципы построения и функционирования эис.
- •1.4.2.Структурный и объектно-ориентированный подходы к проектированию.
- •1.4.3.Понятие жизненного цикла эис.
- •Вопросы для повторения
- •Понятие системы.
- •Резюме по теме
- •2.Теоретические основы работы с информацией
- •2.1. Понятие информации
- •2.2. Измерение количества информации
- •2.3.Кодирование информации
- •2.3.1.Оптимальное основание кода
- •2.3.2.Запись натурального числа в двоичной системе
- •2.3.3.Код Грэя
- •2.3.4.Оптимальное кодирование
- •2.3.5.Помехозащищенное кодирование
- •2.4.Методы организации данных в памяти эвм
- •2.4.1.Типы данных, сд и атд
- •2.4.2.Время выполнения программ
- •2.4.3.Списки
- •2.4.4.Реализация списков
- •Реализация списков посредством массивов
- •Реализация списков с помощью указателей
- •2.4.5.Стеки
- •2.4.6. Очереди
- •2.4.7.Графы и деревья
- •2.4.8.Некоторые сд для хранения графов и деревьев
- •Вопросы для повторения
- •Резюме по теме
- •3. Особенности работы с экономической информацией
- •3.1.Классификация и кодирование экономической информации.
- •3.2.Единая система классификации и кодирования
- •3.3.Штриховое кодирование
- •Алгоритм расчета контрольного разряда ean
- •Вопросы для повторения
- •Резюме по теме
- •4.Модели данных
- •4.1.Атрибуты, составные единицы информации, показатели, документы
- •4.2.Операции над сеи
- •4.3.Реляционная модель данных
- •4.3.1. Отношения, как основа реляционной модели данных
- •4.3.2. Операции над отношениями
- •4.3.3. Нормализация отношений
- •4.3.4. Функциональные зависимости
- •4.3.5. Нормальные формы
- •Вопросы для повторения
- •Операции над сеи.
- •Операции над отношениями.
- •Резюме по теме
- •5.Модели знаний
- •5.1. Классификация знаний
- •5.2. Продукционная модель представления знаний
- •5.3.Представление знаний в виде семантической сети
- •5.4. Фреймовая модель представления знаний
- •5.5. Логическая (предикатная) модель представления знаний
- •Классификация знаний.
- •6.2.Структурная модель предметной области
- •6.2.1.Функциональная методология idef0
- •6.2.2. Функциональная методика потоков данных
- •6.3.Объектная модель предметной области
- •6.4. Сравнение методик моделирования предметной области
- •Вопросы для повторения
- •Понятие модели предметной области.
- •Резюме по теме
- •Литература Рекомендуемая основная литература
- •Рекомендуемая дополнительная литература
- •Задачник Введение
- •Краткое изложение используемых методов решения и основных теоретических положений
- •Примеры решения типовых задач
- •Задачи для самостоятельного решения
- •Практикум (лабораторный) Лабораторная работа №1. Кодирование информации
- •Требования к содержанию, оформлению и порядку выполнения
- •Теоретическая часть
- •Общая постановка задачи
- •Список индивидуальных данных
- •Пример выполнения работы
- •Контрольные вопросы к защите
- •Понятие информации.
- •Способ оценки результатов
- •Пример выполнения работы
- •Пример выполнения работы
- •Контрольные вопросы к защите
- •Список индивидуальных данных
- •Пример выполнения работы
- •Пример выполнения работы
- •Контрольные вопросы к защите
- •Способ оценки результатов
2.2. Измерение количества информации
Информация передается с помощью некоторых сигналов. Сигналы могут быть самые разные: световые, голосовые, электрические и т.д. К сигналам также относятся книги, письма и т.п. В общем случае под сигналом понимают физический процесс, однозначно отображающий передаваемое сообщение с заданной точностью, пригодный для обработки и передачи сообщения на расстояние.
Рассмотрим процесс перехода от непрерывного сигнала к близкому дискретному сигналу. Такой процесс называют дискретизацией сигнала. Устройство, осуществляющее переход от непрерывных (аналоговых) сигналов к дискретным (цифровым) сигналам называют аналого-цифровым преобразователем.
Пример дискретного сигнала – последовательность импульсов с изменяющейся амплитудой. Процесс дискретизации состоит из двух этапов (см. рис.2.1):
1.Дискретизация по времени.
2.Дискретизация по уровню.
При
выборе частоты дискретизации по времени
используют теорему В.А. Котельникова,
согласно которой всякий непрерывный
сигнал, имеющий ограниченный частотный
спектр, полностью определяется своими
дискретными значениями в моменты
отсчета, отстоящие друг от друга на
интервал
,
где
- максимальная частота в спектре сигнала.
Другими словами дискретизация по времени
не приводит к потере информации, если
частота дискретизации
в два раза выше
.
Однако,
допущение об ограниченности частотного
спектра для реальных сигналов, как
правило, не выполняется. Поэтому на
практике частоту дискретизации выбирают
следующим образом:
,
а
выбирают так, чтобы в диапазоне частот
содержалось не менее 90% средней мощности
сигнала.
Если
сигнал имеет конечную длительность
,
то число его дискретных отсчетов во
времени можно оценить с помощью теоремы
Котельникова
.
Число уровней сигнала определяется как
.
Количество информации, которое можно перенести сигналом, будет тем больше, чем больше число комбинаций сигнала (сообщений).
Для подсчета числа таких комбинаций в нашем случае воспользуемся аксиомой комбинаторики – правилом произведения.
Правило
произведения. Если
некоторый выбор A
можно осуществить
способами, а для каждого из этих способов
некоторый другой выбор B
можно осуществить
способами, то выбор «A
и B»
в указанном порядке можно осуществить
способами. Это
правило можно обобщить для произвольного
числа выборов.
В нашем случае в каждый дискретный момент времени сигнал может принимать одно из значений. Т.е. в первый момент времени можно выбрать любой из возможных уровней сигнала, во второй момент времени можно выбрать любой из возможных уровней сигнала и так далее. Всего моментов времени , следовательно, по правилу произведения число возможных комбинаций сигнала или число возможных сообщений выражается формулой
.
Число
дает комбинаторную оценку информации,
содержащейся в произвольном дискретном
сообщении (слове) из
элементов (букв), каждая из которых
принимает одно из
возможных значений, составляющих
некоторый алфавит.
В качестве меры количества информации принято использовать логарифм числа возможных сообщений
Таким
образом, количество информации в сигнале
пропорционально длительности сигнала
(числу отсчетов
).
Выбор основания логарифма
определяет единицу измерения количества
информации. Если
,
то
измеряется в битах.
Один бит
– это количество информации, соответствующее
одному из двух равновозможных сообщений
типа «да» или «нет» (0 или 1). Таким образом
(1)
Бит
является наименьшей единицей измерения
информации. Кроме того, в ЭВМ в качестве
единицы измерения информации используется
байт (Б). Байт
представляет собой вектор, состоящий
из 8 бит. Очевидно, что байтом можно
закодировать
различных сообщений. Также широко
используются килобайт
(КБ), 1КБ=
Б
и мегабайт
(МБ), 1МБ=
Б.
Основы количественной оценки информации были заложены Н.Виннером и К.Шенноном в 1948 году.
Далее попытаемся ответить на вопрос - сколько бит информации приходится на одну букву русского языка?
В
русском языке 33 буквы. Однако,
буквы «е» и «ё» принято ститать за одну
букву. Также за одну букву можно считать
твердый и мягкий знаки. А промежуток
между словами (пробел), наоборот, следует
считать за букву. В итоге, в русском
языке имеется 32 кодовых знака. Тогда
информация, приходящаяся на одну букву,
будет равна
бит.
Это максимальная информация, приходящаяся на букву. Однако буквы в тексте встречаются с различной частотой. Например, относительная частота пробела равна 0.175. Это означает, что на 1000 букв текста в среднем приходится 175 пробелов. Относительная частота буквы «о» равна 0.09, буквы «а» – 0.062, буквы «щ» – 0.003 и т.д. Используемый термин «частота появления» обычно заменяют на термин «вероятность».
Отметим, что различная частота появления букв (вероятность) в текстах ложится в основу построения некоторых систем сжатия информации (архиваторов). Принцип работы таких систем основан на том, что для кодирования частовстречающихся букв используются короткие кодовые слова, а для кодирования редковстречающихся букв используются более длинные слова.
Из-за того, что буквы неравновероятны, информация, которую несет одна буква, уменьшается с 5 бит до 4.35 бита. Но и эта оценка завышена. Дело в том, что здесь информация вычисляется в предположении, что рассматривается одна изолированная буква текста, а предыдущие буквы неизвестны. На самом деле это не так. Действительно, если Вы прочитали слово «котор...», то следующей буквой может быть лишь «а», «ы», «о» или «у», т.о. выбор делается из 4 букв, а не из 32. В результате получается, что с учетом текстовых и стилистических связей, информация, реально приходящаяся на букву равна 0.5-1.5 бита.
Для
оценки информативности текстов используют
понятие избыточности
текста.
Пусть текст состоит из
букв и содержит
лишних букв, тогда избыточность текста
вычисляется следующим образом:
Реальная
информация, приходящаяся на букву,
вычисляется следующим образом
.
Шеннон
предложил следующий способ подсчета
избыточности текста: прочитываете 10-20
слов текста, при этом последующая часть
текста должна быть закрыта, далее
пытаетесь угадать с одной попытки первую
закрытую букву, затем открываете эту
букву и угадываете следующую и т.д. Опыт
производится на 100-200 буквах текста.
Отношение числа угаданных букв к общему
числу угадываемых букв дает приближенное
значение избыточности текста
.
Чем продолжительнее опыт, тем точнее
результат.
Примером языка, лишенного избыточности, является язык цифр.
Все рассуждения о количестве информации в текстах относятся и к произвольным сигналам. В формуле (1) не учитывалось, что различные значения (уровни) дискретного сигнала могут появляться с различными вероятностями.
Пусть
- вероятности появления
-го
значения сигнала (
).
Пусть также
отсчетов сигнал принимает значение
,
отсчетов - значение
и т.д. Вероятность появления такого
сигнала определяется следующим образом
Если
общее число отсчетов
достаточно велико, то можно положить
,
,...,
.
Тогда
При
достаточно большом числе отсчетов (
)
можно считать, что все возможные
комбинации сигнала (
)
равновероятны, т.е.
,
следовательно
Логарифмируя, найдем количество информации в сигнале
Используя
тождества
и
,
окончательно получим
(2)
Если
все значения сигнала равновероятны
(
),
то формулы (1) и (2) совпадают
.
Если
сигнал принимает какое-либо значение
с вероятностью, равной единице (
),
то для
и в соответствии с формулой (2) получим
.
Количество информации, приходящееся на один отсчет сигнала, называют удельной информативностью или энтропией сигнала.
Энтропия является мерой неопределенности исследуемого процесса.
