Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Инфа 1-10.doc
Скачиваний:
226
Добавлен:
14.03.2016
Размер:
212.48 Кб
Скачать

5. Информация и информационная система. Структура и классификация информационных систем

Информация - это результат преобразования и анализа данных. Отличие информации от данных состоит в том, что данные - это фиксированные сведения о событиях и явлениях, которые хранятся на определенных носителях, а информация появляется в результате обработки данных при решении конкретных задач. Например, в базах данных хранятся различные данные, а по определенному запросу система управления базой данных выдает требуемую информацию.

Информационная система (ИС) предназначается для сбора, хранения, обработки и поиска информации, используемой для целей управления и удовлетворения информационных потребностей. ИС содержит:

  • функциональные подсистемы для поддержки функций управления,

  • обеспечивающие подсистемы для реализации операций обработки информации.

  • Функциональные подсистемы соответствуют целям управления, учитывают доступные ресурсы для их достижения, возможный эффект автоматизации управления. В составе функциональных подсистем – совокупность комплексов задач и операций. Основные :функции управления: планирование и (или) прогнозирование; учет, контроль, анализ; координация и (или) регулирование.

Существуют различные виды структур ИС:

  • функциональная (элементы – функции, задачи, операции; связи – информационные);

  • техническая (элементы-устройства; связи – линии связи);

  • организационная (элементы – коллективы людей и отдельные исполнители; связи – информационные, соподчинения и взаи- модействия;

  • алгоритмическая (элементы – алгоритмы; связи – информаци- онные);

  • программная (элементы – программные модули; связи – информационные и управляющие);

  • информационная (элементы – формы существования и представления информации в системе; связи – операции преобра- зования информации в системе).

ИС имеют разные классификации, например:

  • Классификация по архитектуре

  • Классификация по степени автоматизации

  • Классификация по характеру обработки данных

  • Классификация по сфере применения

  • Классификация по охвату задач

6. Информация и формы ее представления. Количество информации. Энтропия

Информация - это результат преобразования и анализа данных. Отличие информации от данных состоит в том, что данные - это фиксированные сведения о событиях и явлениях, которые хранятся на определенных носителях, а информация появляется в результате обработки данных при решении конкретных задач. Например, в базах данных хранятся различные данные, а по определенному запросу система управления базой данных выдает требуемую информацию.

Поскольку носителями информации являются сигналы, то в качестве последних могут использоваться физические процессы различной природы. Информация представляется (отражается) значением одного или нескольких параметров физического процесса (сигнала), либо комбинацией нескольких параметров.

Дискретная - последовательность символов, характеризующая прерывистую, изменяющуюся величину (количество дорожно-транспортных происшествий, количество тяжких преступлений и т.п.);

Аналоговая - это величина, характеризующая процесс, не имеющий перерывов или промежутков (температура тела человека, скорость автомобиля на определенном участке пути и т.п.).

Количеством информации называют числовую характеристику сигнала, отражающую ту степень неопределенности (неполноту знаний), которая исчезает после получения сообщения в виде данного сигнала. Эту меру неопределенности в теории информации называют энтропией. Если в результате получения сообщения достигается полная ясность в каком-то вопросе, говорят, что была получена полная или исчерпывающая информация и необходимости в получении дополнительной информации нет. И, наоборот, если после получения сообщения неопределенность осталась прежней, значит, информации получено не было (нулевая информация).

Приведенные рассуждения показывают, что между понятиями информация, неопределенность и возможность выбора существует тесная связь. Так, любая неопределенность предполагает возможность выбора, а любая информация, уменьшая неопределенность, уменьшает и возможность выбора. При полной информации выбора нет. Частичная информация уменьшает число вариантов выбора, сокращая тем самым неопределенность.

Энтропи́я в теории информации — мера хаотичности информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения.

Так, возьмём, например, последовательность символов, составляющих какое-либо предложение на русском языке. Каждый символ появляется с разной частотой, следовательно, неопределённость появления для некоторых символов больше, чем для других. Если же учесть, что некоторые сочетания символов встречаются очень редко, то неопределённость ещё более уменьшается (в этом случае говорят об энтропии n-ого порядка, см. Условная энтропия).