Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Заочники_ЦБП / ИТвУправлении_от Смирнова ВБ / ИТ в Управлении, Уч.Пос..doc
Скачиваний:
96
Добавлен:
12.03.2016
Размер:
1.33 Mб
Скачать

    1. 1. Задачи информационной технологии

Анализ функционирования систем обработки информации и управления по­зволяет выделить типовые фазы преобразования информации: сбор, подготовку, ввод, передачу, обработку, накопление, вывод, воспроизведение и регистрацию. На основе информационной технологии решается задача автоматизации информационных процессов.

      1. 1.1. Понятие информации

Термин "информация" происходит от ла­тинского слова "informatio" - разъяснение, изложение, осведом­ленность. Понятие информации должно быть связано с определенным объектом, свойства которого она отражает. Кроме того, наблюдается относительная независимость информации от ее носителя, поскольку возможны ее преобразова­ние и передача по различным физическим средам с помощью разно­образных физических сигналов безотносительно к ее содержанию. Информация о любом материальном объекте может быть получена путем на­блюдения, натурного либо вычислительного эксперимента, а также на основе логического вывода. Поэтому говорят об априорной информации (до опыта) и апостериорной информации (полу­ченной в итоге эксперимента).

При обмене информацией должны быть источ­ник информации и потребитель. Информация возникает за счет отражения, которое является свойством материальной системы. Процесс отражения означает взаимодействие объектов материального мира.

Информация отображает образ ре­ального мира, который в дальнейшем может существовать незави­симо от материального объекта. Для описания объектов реального мира используют информационные модели, которые могут быть исходным материалом для разработки систем. Выделяют такие аспекты информации, как прагматический, семантический и синтаксический.

Прагматический аспект связан с возможностью достижения по­ставленной цели с использованием получаемой информации. Этот аспект информации влияет на поведение потребителя. Если инфор­мация была эффективной, то поведение потребителя меняется в же­лаемом направлении, т.е. информация имеет прагматическое содер­жание. Таким образом, этот аспект характеризует поведенческую сторону проблемы.

Семантический аспект позволяет оценить смысл передаваемой информации, соотнося ее с информацией, хранящейся до появления данной. Семантические связи между словами или другими смыс­ловыми элементами языка отражает словарь - тезаурус, который состо­ит из списка слов, сгруппированных по смыслу, и алфавит­ного словаря, позволяющего расположить слова в определенном порядке. Наличие тезауруса позволяет пе­реводить поступающую семантическую информацию на некоторый стандартизованный семантический язык в соответствии с выбран­ным тезаурусом. При возникновении информации можно изменить исходный тезаурус.

Синтаксический аспект информации связан со способом ее представления. В зависимости от реального процесса, в котором участвует информация, она представляется в виде специальных знаков, символов. Характерным носителем информации является сообщение, под которым понимают то, что подлежит передаче. Сообщение представляют в виде сигнала, передаваемого по физи­ческой среде; для этого его подвергают преобразованию, кодированию и модуляции. При хранении информации могут быть пред­ложены такие формы, при которых удается осуществить быстрый поиск, ввод/вывод информации из информационной базы, обновление базы данных.

Все виды деятельности человека по преоб­разованию природы и общества сопровождались получением новой информации. Информация, отображающая объективные закономерности природы, общества и мышления, получила назва­ние научной информации. Часть информации, которая занесена на бумажный носитель, получила название документаль­ной информации. Техническая информация сопровождает разработку новых изделий, материалов, конст­рукций, агрегатов, технологических процессов. Планово-экономическая информация содержит интегральные сведения о ходе производства, значения различных экономических показателей. Верхним уровнем информации, как резуль­тата отражения окружающей действительности, являются знания. Знания возникают как итог теоретической и практической деятельности. На основе структуризации инфор­мации формируется информационная модель объекта.

В настоящее время информация используется всеми отраслями народного хозяйства и является ресурсом общества. Появ­ление понятия "информационный ресурс" дало развитие новому направлению - информатике. Информатика связана с обработкой больших объемов информации на основе программно-аппарат­ных средств вычислительной техники. Информати­ка изучает свойства информационных ресурсов, разрабатывает методы их организации, преобразования и применения. На пользо­вательском уровне информатика дает основу для создания современных информационных систем. Основными направлениями исследований в области информатики являются следующие: разработка новой ин­формационной технологии проектирования систем; развитие интел­лектуальных методов доступа пользователя к вычислительной сре­де; создание моделей анализа и синтеза информационных процес­сов; совершенствование программных и аппаратных средств вычис­лительной техники; переход к интеллектуальным систем обработки информации на основе гибридных экспертных систем.

Количественные характеристики информации и методы их оценки. В процессе отражения между состояниями взаимодействующих объектов возникает определенная связь. Информация, как результат отражения одного объекта другим, выявляет степень соответствия их состояний, а поэтому важными оказываются имен­но количественные характеристики информации. Возможен ряд подходов к оценке качества информации. Наиболее существенными из них являются статистический, семантический и структурный. Наибольшее развитие исторически получил первый подход.

Статистический подход. Теория информации в математи­ческой основе использует методы теории вероятности, математичес­кой статистики, линейной алгебры и др. Основное место в теории информации занимают статистические методы. Основы теории информации были заложены в 1948 г. американским математиком К. Шенноном. Им было введено понятие "количество информации" как меры неопределенности, снимаемой при поступлении информации. В статистической теории основное внимание обращается на распределение вероятности появления от­дельных событий и построение на его основе обобщенных характеристик, позволяющих оценить количество информации в одном событии либо в их совокупности. Количественной мерой инфор­мации стала энтропия.

Семантический подход. Под семанти­кой будем подразумевать совокупность правил соответствия между формальными выражениями и их интерпретацией. Под семиотикой - комплекс научных теорий, изучающих свойства знаковых систем. В информатике языки различного уровня занима­ют значительное место. Семантический подход к информации бази­руется на анализе ее ценности. Ценность информации связывают со временем, поскольку с течением времени она стареет и ценность ее уменьшается. Семантическая теория оценивает содержательный аспект информации.

Структурный подход рассматривает построение информаци­онных массивов, что имеет особое значение при хранении инфор­мации. Современное производство сопряжено с большим объемом перерабатываемой информации. Хранение информации только в виде документов в рамках современной "бумажной" технологии оказывается уже невозможным из-за оперативного восприятия и использования этой информации. Универсальным средством как оперативного, так и долговременного хранения раз­личной информации стали электронные вычислительные машины. Оценка количества хранимой информации на базе структурной теории оказывается более приемлемой, поскольку за единицы информации принимают некоторые элементарные струк­турные единицы, например реквизиты - простейшие, имеющие смысловое значение записи информации. Из реквизитов складываются записи, из записей составляются информационные массивы, из массивов возникают комплексы информационных массивов. Последние составляют информационную базу, которая совместно с си­стемой управления базой данных (СУБД) формирует современный автоматизированный банк данных. Таким образом, структурная теория приобретает все большее значение, поскольку необходимо оценивать количество хранимой информации.

Разные подходы к оценке количества информации заставляют, с одной стороны, использовать разнотипные единицы информации для характеристики различных информационных процессов, а с дру­гой - увязывать эти единицы между собой как на логичес­ком, так и на физическом уровнях. Например, процесс передачи информации, измеряемой в одних единицах, сопрягается с процес­сом хранения информации, где она измеряется в других единицах, и т.д., а поэтому выбор единицы информации является весьма актуальной задачей. Рассмотрим статистическую меру количества информации, получившую наибольшее применение для процесса передачи сообщений.

Статистический подход. Чтобы возник процесс передачи, долж­ны быть источник информации и потребитель. Источник выдает сообщение, потребитель, принимая сообщение, получает при этом информацию о состоянии источника. В статистической теории не изучается содержание инфор­мации. Предполагается, что до получения информации имела место некоторая неопределенность. С получением информации эта неоп­ределенность снимается. Таким образом, статистическая количе­ственная характеристика информации - это мера снимаемой в процессе получения информации неопределенности системы. Есте­ственно, что количество информации зависит от закона распределе­ния состояний системы.

Введем количественную меру информации для простейшего варианта пе­редачи равновероятных сообщений. Пусть источник сообщений формирует М сообщений, каждое из которых передастся неизбыточным кодом длины n. Будем считать, что выполняются следующие условия: осуществляется передача дискретных сообщений; сообщения являются равновероятными и взаимонезависимыми; символы, выдаваемые источником, взаимонезависимы; система счисления (основание кода) K конечна. Тогда число передаваемых сообщений составляет M=Kn. За единицу количества информации примем число сведений, которые передаются двумя равновероятными сообщениями. Назовем эту единицу двоичной единицей информации. Тогда количест­во информации в сообщении I=log2М (формула Хартли). Из нее следу­ет, что для равновероятных дискретных сообщений количество информации зависит лишь от числа передаваемых сообщений. Если сообщения отображаются неизбыточным кодом, то, под­ставляя М=Kn, получим I=nlog2K.

Аддитивность статистической меры информации позволяет определить количество информации в случае, когда передава­емые дискретные сообщения являются неравновероятными. Можно предположить, что количество информации, содержащейся в конк­ретном дискретном сообщении, функционально зависит от вероят­ности выбора этого сообщения. Тогда для сообщения x0j, возника­ющего с вероятностью Р(x0j), количество информации может быть записано в виде I = -nj=1K Р(xj) log2Р(xj).

Собственная информация. Под этим будем понимать информацию, которая содержится в данном конкретном сообщении. В соответствии с этим определением количество соб­ственной информации в сообщении x0j определяется как I(x0j)=-log2P(x0j). Количество собственной информации измеряет­ся числом бит информации, содержащихся в сообщении x0j. Математичес­кое ожидание случайной величины собственной информации назы­вается энтропией. Энтропия рассчитывается на ансамб­ле сообщений X0 либо на множестве символов Х и физически определяет среднее количество собственной информации, которое содержится в элементах множества. Для источника сообщений случайная величина собственной информации принимает значения I(x01), ..., I(x0M) с вероятностями P(x01), ..., P(x0M) соответственно. Математическое ожидание собственной ин­формации, содержащейся в ансамбле сообщений Х0, т.е. энтропия этого ансамбля

Н(X0)=-j=1MР(х0j)I0j)=-j=1MР(х0j)log2P0j),

где М - множество сообщений в ансамбле X0. Содержательно энтропия Н(X0) показывает количество двоичных единиц инфор­мации, которая содержится в любом сообщении из множества X0.

Понятие энтропии применимо к непрерывным событиям. В системах об­работки информации и управления значительная доля информации имеет непрерывный характер и выражается в виде непрерывной функции от времени. В этом случае возникает задача передачи непрерывной информации в виде непрерывных сообщений по кана­лам связи. Непосредственная передача непрерывных сообщений без преобразования возможна лишь на незначительные расстояния. С увеличением расстояния осуществляют операцию дискретизации информации. Для этого вводят квантование по времени и по уров­ню. Непрерывная функция передается в виде совокупности мгновен­ных либо квантованных отсчетов, выбранных с различными ин­тервалами по времени. Оценим количество информации, которая содержится в одном отсчете непрерывной функции, и найдем общее выражение для энтропии непрерывных событий. Пусть имеет место непрерывная информация, представленная в виде непрерывной функции х(t) с известной плотностью распреде­ления вероятностей амплитудных значений W(x). Дифференциальную энтропию непрерывного сообщения определяют в виде: Hп(x)= -- W(x)log2W(x) dx.

Семантический подход. В современных системах обработки ин­формации и управления существенное место занимает подготовка информации для принятия решения и сам процесс принятия реше­ния в системе. Здесь весомую помощь может оказать семан­тическая теория, позволяющая вскрыть смысл и содержание инфор­мации, выражаемой на естественном, либо близком к нему, языке. С увеличением объема производства и его сложности количество информации, необходимое для принятия безошибочного решения, непрерывно возрастает. В этих условиях необходимо осуществлять отбор информации по некоторым критериям, т.е. предоставлять руководителю либо лицу, принимающему решение, своевременную и полезную информацию. С учетом ошибок, которые могут воз­никать в информации в связи с действиями оператора, отказами технических средств избыточность допускается лишь как средство борьбы с ошибками. В этом смысле можно считать, что избыточность способствует сохранению ценности информации, обеспечивая требуемую верность. В рамках семантического подхода ценность информации можно задать через функцию потерь. Если в процессе подготовки информации исходная величина x отобража­ется через величину y, то минимум потерь можно установить как min=min|YX(х/у)Р(х), где Р(х) - распределение входной величины x; (х/у) - потери при преобразовании входной величины x в величину у. Отсюда ценность информации определяется как Ц=max|P(х/у)[min-M{(х/у)}], где M{(х/у)} - математическое ожидание потерь при переходе от входной величины х к величине у.

Структурный подход. На стадиях обработки и хранения сущест­венное место занимает структурная теория оценки количества ин­формации. В структурной теории оперируют с некоторыми еди­ницами информации. При машинной обработке в качестве такой структурной единицы используется машинное слово. Эта структурная единица согласуется с единицей информации, выбранной в стати­стической теории. Менее согласованной единицей, принятой при хранении информации в структуре информационного обеспечения, является реквизит, который может иметь произвольную длину. Единственное требование к нему - это кратчайшая запись, име­ющая смысловое содержание. Структурная теория позволяет на логическом уровне выбирать оптимальную структуру информаци­онной базы, задавая порядок следования записей в массиве, рас­положение массивов, связь между их комплексами. Установивши­мися понятиями стали такие понятия, как запись, массив, комплекс массивов. Расположение отдельных записей внутри массива определяется процедурой организации массива.