- •1. Задачи информационной технологии
- •1.1. Понятие информации
- •1.2. Автоматизация информационного процесса
- •1.3. Информатика
- •1.4. Задачи информационной технологии
- •1.5. Структура информационной технологии
- •2. Информационные процессы
- •2.1. Процесс передачи информации
- •2.2. Процесс обработки информации
- •2.3. Процесс накопления информации
- •2.4. Представление знаний
- •2.5. Модель взаимодействия открытых систем
- •3. Системный подход к организации информационных процессов
- •3.1. Сущность системного подхода
- •3.2.Основные понятия теории систем
- •3.3.Методы описания систем Качественные методы описания систем
- •Количественные методы описания систем
- •3.4.Моделирование систем
- •4. Методика создания информационных систем
- •4.1. Организация информационных систем
- •4.2. Стадии и этапы создания информационных систем
- •I стадия - предпроектное обследование:
- •II стадия - проектирование:
- •III стадия - ввод системы в действие:
- •IV стадия - промышленная эксплуатация.
- •4.4. Роль пользователя в создании информационных технологий
- •5. Информационное обеспечение ис и технологий
- •5.1. Структура и содержание информационного обеспечения
- •5.2. Электронный документооборот
- •5.3. Организация информационного обеспечения
- •5.5. Автоматизированные базы и банки данных
- •6. Технологическое обеспечение информационных систем конечного пользователя
- •6.1. Задачи технологического обеспечения
- •6.2. Диалоговый режим обработки информации
- •6.3. Сетевой режим автоматизированной обработки информации
- •6.4. Технология обработки текстовой и табличной информации
- •6.5. Системы управления базами данных и базами знаний
- •6.6. Интегрированные технологии в распределенных системах обработки данных
- •Список литературы
- •Содержание
1. Задачи информационной технологии
Анализ функционирования систем обработки информации и управления позволяет выделить типовые фазы преобразования информации: сбор, подготовку, ввод, передачу, обработку, накопление, вывод, воспроизведение и регистрацию. На основе информационной технологии решается задача автоматизации информационных процессов.
1.1. Понятие информации
Термин "информация" происходит от латинского слова "informatio" - разъяснение, изложение, осведомленность. Понятие информации должно быть связано с определенным объектом, свойства которого она отражает. Кроме того, наблюдается относительная независимость информации от ее носителя, поскольку возможны ее преобразование и передача по различным физическим средам с помощью разнообразных физических сигналов безотносительно к ее содержанию. Информация о любом материальном объекте может быть получена путем наблюдения, натурного либо вычислительного эксперимента, а также на основе логического вывода. Поэтому говорят об априорной информации (до опыта) и апостериорной информации (полученной в итоге эксперимента).
При обмене информацией должны быть источник информации и потребитель. Информация возникает за счет отражения, которое является свойством материальной системы. Процесс отражения означает взаимодействие объектов материального мира.
Информация отображает образ реального мира, который в дальнейшем может существовать независимо от материального объекта. Для описания объектов реального мира используют информационные модели, которые могут быть исходным материалом для разработки систем. Выделяют такие аспекты информации, как прагматический, семантический и синтаксический.
Прагматический аспект связан с возможностью достижения поставленной цели с использованием получаемой информации. Этот аспект информации влияет на поведение потребителя. Если информация была эффективной, то поведение потребителя меняется в желаемом направлении, т.е. информация имеет прагматическое содержание. Таким образом, этот аспект характеризует поведенческую сторону проблемы.
Семантический аспект позволяет оценить смысл передаваемой информации, соотнося ее с информацией, хранящейся до появления данной. Семантические связи между словами или другими смысловыми элементами языка отражает словарь - тезаурус, который состоит из списка слов, сгруппированных по смыслу, и алфавитного словаря, позволяющего расположить слова в определенном порядке. Наличие тезауруса позволяет переводить поступающую семантическую информацию на некоторый стандартизованный семантический язык в соответствии с выбранным тезаурусом. При возникновении информации можно изменить исходный тезаурус.
Синтаксический аспект информации связан со способом ее представления. В зависимости от реального процесса, в котором участвует информация, она представляется в виде специальных знаков, символов. Характерным носителем информации является сообщение, под которым понимают то, что подлежит передаче. Сообщение представляют в виде сигнала, передаваемого по физической среде; для этого его подвергают преобразованию, кодированию и модуляции. При хранении информации могут быть предложены такие формы, при которых удается осуществить быстрый поиск, ввод/вывод информации из информационной базы, обновление базы данных.
Все виды деятельности человека по преобразованию природы и общества сопровождались получением новой информации. Информация, отображающая объективные закономерности природы, общества и мышления, получила название научной информации. Часть информации, которая занесена на бумажный носитель, получила название документальной информации. Техническая информация сопровождает разработку новых изделий, материалов, конструкций, агрегатов, технологических процессов. Планово-экономическая информация содержит интегральные сведения о ходе производства, значения различных экономических показателей. Верхним уровнем информации, как результата отражения окружающей действительности, являются знания. Знания возникают как итог теоретической и практической деятельности. На основе структуризации информации формируется информационная модель объекта.
В настоящее время информация используется всеми отраслями народного хозяйства и является ресурсом общества. Появление понятия "информационный ресурс" дало развитие новому направлению - информатике. Информатика связана с обработкой больших объемов информации на основе программно-аппаратных средств вычислительной техники. Информатика изучает свойства информационных ресурсов, разрабатывает методы их организации, преобразования и применения. На пользовательском уровне информатика дает основу для создания современных информационных систем. Основными направлениями исследований в области информатики являются следующие: разработка новой информационной технологии проектирования систем; развитие интеллектуальных методов доступа пользователя к вычислительной среде; создание моделей анализа и синтеза информационных процессов; совершенствование программных и аппаратных средств вычислительной техники; переход к интеллектуальным систем обработки информации на основе гибридных экспертных систем.
Количественные характеристики информации и методы их оценки. В процессе отражения между состояниями взаимодействующих объектов возникает определенная связь. Информация, как результат отражения одного объекта другим, выявляет степень соответствия их состояний, а поэтому важными оказываются именно количественные характеристики информации. Возможен ряд подходов к оценке качества информации. Наиболее существенными из них являются статистический, семантический и структурный. Наибольшее развитие исторически получил первый подход.
Статистический подход. Теория информации в математической основе использует методы теории вероятности, математической статистики, линейной алгебры и др. Основное место в теории информации занимают статистические методы. Основы теории информации были заложены в 1948 г. американским математиком К. Шенноном. Им было введено понятие "количество информации" как меры неопределенности, снимаемой при поступлении информации. В статистической теории основное внимание обращается на распределение вероятности появления отдельных событий и построение на его основе обобщенных характеристик, позволяющих оценить количество информации в одном событии либо в их совокупности. Количественной мерой информации стала энтропия.
Семантический подход. Под семантикой будем подразумевать совокупность правил соответствия между формальными выражениями и их интерпретацией. Под семиотикой - комплекс научных теорий, изучающих свойства знаковых систем. В информатике языки различного уровня занимают значительное место. Семантический подход к информации базируется на анализе ее ценности. Ценность информации связывают со временем, поскольку с течением времени она стареет и ценность ее уменьшается. Семантическая теория оценивает содержательный аспект информации.
Структурный подход рассматривает построение информационных массивов, что имеет особое значение при хранении информации. Современное производство сопряжено с большим объемом перерабатываемой информации. Хранение информации только в виде документов в рамках современной "бумажной" технологии оказывается уже невозможным из-за оперативного восприятия и использования этой информации. Универсальным средством как оперативного, так и долговременного хранения различной информации стали электронные вычислительные машины. Оценка количества хранимой информации на базе структурной теории оказывается более приемлемой, поскольку за единицы информации принимают некоторые элементарные структурные единицы, например реквизиты - простейшие, имеющие смысловое значение записи информации. Из реквизитов складываются записи, из записей составляются информационные массивы, из массивов возникают комплексы информационных массивов. Последние составляют информационную базу, которая совместно с системой управления базой данных (СУБД) формирует современный автоматизированный банк данных. Таким образом, структурная теория приобретает все большее значение, поскольку необходимо оценивать количество хранимой информации.
Разные подходы к оценке количества информации заставляют, с одной стороны, использовать разнотипные единицы информации для характеристики различных информационных процессов, а с другой - увязывать эти единицы между собой как на логическом, так и на физическом уровнях. Например, процесс передачи информации, измеряемой в одних единицах, сопрягается с процессом хранения информации, где она измеряется в других единицах, и т.д., а поэтому выбор единицы информации является весьма актуальной задачей. Рассмотрим статистическую меру количества информации, получившую наибольшее применение для процесса передачи сообщений.
Статистический подход. Чтобы возник процесс передачи, должны быть источник информации и потребитель. Источник выдает сообщение, потребитель, принимая сообщение, получает при этом информацию о состоянии источника. В статистической теории не изучается содержание информации. Предполагается, что до получения информации имела место некоторая неопределенность. С получением информации эта неопределенность снимается. Таким образом, статистическая количественная характеристика информации - это мера снимаемой в процессе получения информации неопределенности системы. Естественно, что количество информации зависит от закона распределения состояний системы.
Введем количественную меру информации для простейшего варианта передачи равновероятных сообщений. Пусть источник сообщений формирует М сообщений, каждое из которых передастся неизбыточным кодом длины n. Будем считать, что выполняются следующие условия: осуществляется передача дискретных сообщений; сообщения являются равновероятными и взаимонезависимыми; символы, выдаваемые источником, взаимонезависимы; система счисления (основание кода) K конечна. Тогда число передаваемых сообщений составляет M=Kn. За единицу количества информации примем число сведений, которые передаются двумя равновероятными сообщениями. Назовем эту единицу двоичной единицей информации. Тогда количество информации в сообщении I=log2М (формула Хартли). Из нее следует, что для равновероятных дискретных сообщений количество информации зависит лишь от числа передаваемых сообщений. Если сообщения отображаются неизбыточным кодом, то, подставляя М=Kn, получим I=nlog2K.
Аддитивность статистической меры информации позволяет определить количество информации в случае, когда передаваемые дискретные сообщения являются неравновероятными. Можно предположить, что количество информации, содержащейся в конкретном дискретном сообщении, функционально зависит от вероятности выбора этого сообщения. Тогда для сообщения x0j, возникающего с вероятностью Р(x0j), количество информации может быть записано в виде I = -nj=1K Р(xj) log2Р(xj).
Собственная информация. Под этим будем понимать информацию, которая содержится в данном конкретном сообщении. В соответствии с этим определением количество собственной информации в сообщении x0j определяется как I(x0j)=-log2P(x0j). Количество собственной информации измеряется числом бит информации, содержащихся в сообщении x0j. Математическое ожидание случайной величины собственной информации называется энтропией. Энтропия рассчитывается на ансамбле сообщений X0 либо на множестве символов Х и физически определяет среднее количество собственной информации, которое содержится в элементах множества. Для источника сообщений случайная величина собственной информации принимает значения I(x01), ..., I(x0M) с вероятностями P(x01), ..., P(x0M) соответственно. Математическое ожидание собственной информации, содержащейся в ансамбле сообщений Х0, т.е. энтропия этого ансамбля
Н(X0)=-j=1MР(х0j)I(х0j)=-j=1MР(х0j)log2P(х0j),
где М - множество сообщений в ансамбле X0. Содержательно энтропия Н(X0) показывает количество двоичных единиц информации, которая содержится в любом сообщении из множества X0.
Понятие энтропии применимо к непрерывным событиям. В системах обработки информации и управления значительная доля информации имеет непрерывный характер и выражается в виде непрерывной функции от времени. В этом случае возникает задача передачи непрерывной информации в виде непрерывных сообщений по каналам связи. Непосредственная передача непрерывных сообщений без преобразования возможна лишь на незначительные расстояния. С увеличением расстояния осуществляют операцию дискретизации информации. Для этого вводят квантование по времени и по уровню. Непрерывная функция передается в виде совокупности мгновенных либо квантованных отсчетов, выбранных с различными интервалами по времени. Оценим количество информации, которая содержится в одном отсчете непрерывной функции, и найдем общее выражение для энтропии непрерывных событий. Пусть имеет место непрерывная информация, представленная в виде непрерывной функции х(t) с известной плотностью распределения вероятностей амплитудных значений W(x). Дифференциальную энтропию непрерывного сообщения определяют в виде: Hп(x)= -- W(x)log2W(x) dx.
Семантический подход. В современных системах обработки информации и управления существенное место занимает подготовка информации для принятия решения и сам процесс принятия решения в системе. Здесь весомую помощь может оказать семантическая теория, позволяющая вскрыть смысл и содержание информации, выражаемой на естественном, либо близком к нему, языке. С увеличением объема производства и его сложности количество информации, необходимое для принятия безошибочного решения, непрерывно возрастает. В этих условиях необходимо осуществлять отбор информации по некоторым критериям, т.е. предоставлять руководителю либо лицу, принимающему решение, своевременную и полезную информацию. С учетом ошибок, которые могут возникать в информации в связи с действиями оператора, отказами технических средств избыточность допускается лишь как средство борьбы с ошибками. В этом смысле можно считать, что избыточность способствует сохранению ценности информации, обеспечивая требуемую верность. В рамках семантического подхода ценность информации можно задать через функцию потерь. Если в процессе подготовки информации исходная величина x отображается через величину y, то минимум потерь можно установить как min=min|YX(х/у)Р(х), где Р(х) - распределение входной величины x; (х/у) - потери при преобразовании входной величины x в величину у. Отсюда ценность информации определяется как Ц=max|P(х/у)[min-M{(х/у)}], где M{(х/у)} - математическое ожидание потерь при переходе от входной величины х к величине у.
Структурный подход. На стадиях обработки и хранения существенное место занимает структурная теория оценки количества информации. В структурной теории оперируют с некоторыми единицами информации. При машинной обработке в качестве такой структурной единицы используется машинное слово. Эта структурная единица согласуется с единицей информации, выбранной в статистической теории. Менее согласованной единицей, принятой при хранении информации в структуре информационного обеспечения, является реквизит, который может иметь произвольную длину. Единственное требование к нему - это кратчайшая запись, имеющая смысловое содержание. Структурная теория позволяет на логическом уровне выбирать оптимальную структуру информационной базы, задавая порядок следования записей в массиве, расположение массивов, связь между их комплексами. Установившимися понятиями стали такие понятия, как запись, массив, комплекс массивов. Расположение отдельных записей внутри массива определяется процедурой организации массива.