Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Учебник ИнфТиСисУпрТезПр.doc
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
11.24 Mб
Скачать

Глава 1. Информационные технологии

Технология (от греческого техно — искусство, мастерство, уме­ние) — совокупность методов обработки, изготовления, измене­ния состояния, свойств, формы сырья, материала или полуфаб­риката, осуществляемых в процессе производства продукции.

Информационные технологии — совокупность методов, произ­водственных процессов и программно-технических средств, объе­диненных в единую технологическую цепочку, обеспечивающую сбор, хранение, обработку, вывод и распространение информации для снижения трудоемкости процессов, использования информа­ционного ресурса, повышения надежности и оперативности ра­боты оборудования и т. п.

1.1. Информация

В общем случае информация — это поток знаков и символов, это сообщение, знания о каком-либо событии, о чьей-либо дея­тельности и т. п. На основе информации осуществляется функ­ционирование любой управляющей системы (людей, машин, жи­вотных).

Информация — это сведения об окружающем мире и проте­кающих в нем процессах, воспринимаемые человеком или спе­циализированным устройством, например компьютером, для обеспечения целенаправленной деятельности.

Информация возникает в процессе производства и управле­ния. Она присуща лишь организованным системам, способным воспринимать информацию и изменяться под влиянием внешних и внутренних воздействий.

В управлении информация играет главную роль, развиваясь и видоизменяясь под воздействием экономических факторов, науч­но-технического прогресса, внешней среды, потребностей произ­водства, организации процесса управления.

Поток информации — это совокупность данных, являющаяся частью какой-либо информации, рассматриваемая в процессе ее движения в пространстве и времени в одном направлении' при условии, что у этих данных есть общий источник и общий при­емник. Например, в производстве совокупность всех сведений, передаваемых из объекта управления (технологический про­цесс) — источник, а система управления — адресат.

Внутри предприятия (объединения), между его подразделе­ниями циркулирует огромное количество информации о запасах сырья, наличии мощностей (оборудования) и рабочей силы, но­менклатуре выпускаемой продукции и т. п.

Информация по своей физической природе может быть чи­словой, текстовой, графической, звуковой, видео- и др. Она так­же может быть постоянной (неменяющейся), переменной, слу­чайной, вероятностной. Наибольший интерес для нас представ­ляет переменная информация, так как она позволяет выявлять причинно-следственные связи в процессах и явлениях.

Существуют различные способы оценки количества информа­ции. Классическим является подход, использующий формулу К. Шеннона. В двоичной системе счисления она имеет вид1:

I=log2N, (1.1)

где I—количество информации, несущей представления о со­стоянии, в котором находится объект, N — количество равноверо­ятных альтернативных состояний объекта.

Способы количественной оценки и достоверности информации в ряде случаев оказываются недостаточными в связи со значитель­ным увеличением потока измерительной информации и ее значи- i мости в научной и производственной деятельности человека.

гДля описания и оценки контролируемых объектов применяют обобщенные информационные характеристики, позволяющие распространять общие теоретические подходы и выводы на все области измерительной техники.

Разработка и применение единых критериев и методов для расчета и оценки качества измерительных устройств и каналов связи, сложных информационных и автоматизированных систем управления базируется на использовании основных положений теории информации.

Информационная теория измерений и измерительных уст­ройств как раздел современной метрологии полностью согласует­ся с прежним представлением о ней и является логическим ее продолжением и развитием. Согласно этой теории, результаты измерений и контроля рассматривартся как случайные события, а проводимые эксперименты по процедуре измерений и контро­лю — как ситуации, в которых эти события могут проявляться.

Основным понятием в теории информации является понятие энтропии, которая в применении к измерениям характеризует меру неопределенности исследуемой ситуации, т. е. процедуры измерения и контроля соответствующих параметров. Энтропия определяется числом возможных событий в заданной ситуации и вероятностями их появления.

Энтропией системы называется сумма произведений рероятно- стей различных состояний системы на логарифмы этих вероятно­стей, взятая с обратным знаком.

При этом рассматривается некоторая физическая система X, ко­торая может принимать конечное множество состояний х,, хг, ..., хп с вероятностями рх, р2, ..., рп, тогда энтропия определяется как

#(*) = -£ A log Д. (1'2)

/ = 1

где р, = Р(Х~х) вероятность того, что система X находится в со­стоянии х„ через Р обозначается статистическая вероятность.

Энтропия Н(Х) обращается в нуль, если одно из состояний системы достоверно, а остальные невозможны, т. е. энтропия системы, состояние которой точно определено, равняется нулю. При заданном числе состояний, когда все состояния равноверо­ятны, энтропия имеет минимум, а при увеличении- числа этих состояний увеличивается.

Энтропия сложной системы, состоящей из нескольких простых систем, формируется при их объединении. При этом энтропия такой системы равна сумме произведений вероятностей всех возможных ее состояний на их логарифмы, взятой с обратным знаком, т. е.

ff(X,Y) = -£ £/> log Pr (L3)

/=1 i=

1

(1.4)

(1.5)

Если объединяемые системы независимы, их энтропии скла­дываются

H(X,Y) = H(X) + H(Y).

Если система формируется из независимых друг от друга сис­тем, для их объединения вводится понятие условной энтропии, которая имеет вид

Н(Х/¥) = -% £/> logР(у,/X,).

Величина условной энтропии H(X/Y) характеризует степень неопределенности системы Y, оставшейся после того, как состоя­ние системы X полностью определилось.

(1.6)

Если две системы X и Y объединяются в одну, энтропия объе­диненной системы равна энтропии одной из ее частей плюс ус­ловная энтропия второй части относительно первой

H(X,Y) = H(X) + H(Y/X).

При объединении любого количества систем формула сложе­ния их энтропий имеет вид

H(Xi,X2,...,Xs) = H(X,)+H(X2/Xl) + H(X ъх2) + (1.7) + ... + H(X5/Xl,X2,...,Xs_l).

Следовательно, в результате получения информации неопре­деленность системы уменьшается. Чем больше объем и содержа­тельность информации, тем меньше неопределенность состояния системы. Поэтому так актуальна целесообразность оценки количе­ства информации измерением энтропии системы, состояние которой оценивается.

(1.8)

Количество информации, которая приобретается при полном выяснении состояния некоторой системы X, равно энтропии этой системы:

Ix=H(X)

или

(1-9)

где р, =Р(Х~х1).

При получении информации о системе X путем наблюдения за некоторой другой системой Y, связанной с нею, количество полной взаимной информации, содержащейся в обоих системах, равно сумме энтропий составляющих систем минус энтропия объединенной системы

Iyx=H(X,Y) = H(X) + H(Y)-H(X,Y). (1.10)

Для физических систем, описываемых непрерывными случай­ными величинами, энтропия имеет вид

Яд* (X) = " [/(*) log /(x)dx-log Ах, (1.11)

где Ах — степень точности определения состояния системы.

Из выражения (1.11) видно, что от Ах зависит только второй его член (-logАх), который при Дх—> 0 стремится к бесконечно­сти, т. е. чем точнее необходимо знать состояние системы X, тем большая часть неопределенности должна быть устранена. Таким образом, задаваясь зоной нечувствительности Ах измерительных средств, с помощью которых производятся измерения для опре­деления состояния системы X, можно определить энтропию этой системы.

Для определения условной энтропии применяют выражение в виде математического ожидания функции

W = - [/(*) log{/(x)Ax}dx. (1.12)

Для двух взаимозависимых непрерывных систем X и Y полная (средняя) условная энтропия имеет вид

H^y{Y/X) = - JJ /(х, у) log f(y / x)dxdy - log . (1.13)

При объединении в одну двух зависимых систем X и Y энтро­пия этой системы

^АхАу (X >Y) = Н^ (X) + H&y/Ax(Y/X). (1.14)

При объединении двух независимых систем энтропия имеет вид

Н ь^у (X,Y) = Н ^ {Х) + Н,у(У). (1.15)

Выражение для полной взаимной информации, содержащейся в непрерывных системах X и У, имеет вид, аналогичный таково­му для дискретных систем. В этом случае вероятности заменяют­ся законами распределения, а суммы — интегралами:

(1.16)

Следовательно, полная взаимная информация обращается в нуль, если системы X и Y независимы.

С помощью полной (средней) условной энтропии можно про­водить оценку количества информации при воздействии помех. Условная энтропия равна в этом случае количеству потерь ин­формации вследствие помех.

Использование информационных критериев позволяет анали­зировать и оценивать вероятностными методами погрешности из­мерений в статических и динамических режимах, качество мнр- гоканальных измерительных систем, надежность измерительных устройств, решать задачи по поиску неисправности в них, а так­же ряд других вопросов, связанных с восприятием, преобразова­нием и выдачей измерительной информации применительно к измерительному устройству или системе любого вида.